AI

ollama gpu设置

默认的ollama调用的各种大模型,如deepseek 70b模型,每个模型实例只绑定一张 GPU,如果是多卡,其它卡会一直闲置,造成一定浪费。 本文档介绍如何通过 systemd 配置文件为 Ollama 服务添加 GPU 和调度相关的环...

ollama 开放外部访问

要开放 Ollama 的外部访问,使其可以被局域网或外网访问,需要进行以下配置: 1. 设置 OLLAMA_HOST 环境变量 默认情况下,Ollama 仅监听 127.0.0.1:11434,要允许外部访问,需修改 OLLAMA_HOST: bash ...

如何自行训练开源的大模型

自行训练开源的大型模型(如 GPT、LLaMA、BLOOM 等)是一个复杂的过程,需要技术知识、硬件资源和时间。以下是详细的步骤和注意事项: 1. 准备工作 1.1 硬件需求 GPU:训练大模型需要高性能 GPU(如 NVI...

Ollama Page Assist

Page Assist 是一款开源的浏览器扩展程序,主要为本地 AI 模型提供直观的交互界面,让用户可以在任何网页上与本地 AI 模型进行对话和交互。 基本功能 侧边栏交互:用户可以在任何网页上打开侧边栏,与本...

Ollama Open WebUI

Open WebUI 用户友好的 AI 界面(支持 Ollama、OpenAI API 等)。 Open WebUI 支持多种语言模型运行器(如 Ollama 和 OpenAI 兼容 API),并内置了用于检索增强生成(RAG)的推理引擎,使其成为强大的 AI 部署...

Ollama Python 使用

Ollama 提供了 Python SDK,可以让我们能够在 Python 环境中与本地运行的模型进行交互。 通过 Ollama 的 Python SDK 能够轻松地将自然语言处理任务集成到 Python 项目中,执行各种操作,如文本生成、对话生成...

Ollama API 交互

Ollama 提供了基于 HTTP 的 API,允许开发者通过编程方式与模型进行交互。 本文将详细介绍 Ollama API 的详细使用方法,包括请求格式、响应格式以及示例代码。 1. 启动 Ollama 服务 在使用 API 之前,需要...

Ollama 模型交互

Ollama 提供了多种方式与模型进行交互,其中最常见的就是通过命令行进行推理操作。 1. 命令行交互 通过命令行直接与模型进行交互是最简单的方式。 运行模型 使用 ollama run 命令启动模型并进入交互模式...

Ollama 基本概念

Ollama 是一个本地化的、支持多种自然语言处理(NLP)任务的机器学习框架,专注于模型加载、推理和生成任务。 通过 Ollama,用户能够方便地与本地部署的大型预训练模型进行交互。 1. 模型(Model) 在 Oll...

银众网