一文讲清楚 Coze Studio 配置 Ollama 模型方法
一、Ollama下载与安装指南
Ollama 是一个强大的开源大型语言模型(LLM)平台,旨在为用户提供一个简洁易用的命令行界面和服务器,帮助用户轻松下载、运行和管理各种开源语言模型。通过 Ollama,用户可以便捷地加载并使用各种预训练的语言模型,支持多种自然语言处理任务,如文本生成、翻译、代码编写、问答等。
Ollama官网与下载地址
下载地址:https://github.com/ollama/ollama
以下以 Windows 系统为例,介绍 Ollama 的安装和配置过程。
二、Ollama安装步骤
1.下载 Ollama 安装包
首先,从 GitHub 下载 Ollama 安装包。
2.运行安装程序
下载完成后,双击 OllamaSetup.exe 开始安装。默认情况下,Ollama 会被安装到 C:\Users\{user}\AppData\Local\Programs 目录。建议 C 盘至少保留 10GB 的剩余空间,因为 Ollama 会下载其他模型到该目录。
3.安装完成后自动启动
安装完成后,Ollama 会自动在电脑右下角显示图标,并会随系统启动。此时,你可以通过命令行运行模型,进行交互式会话。
三、在命令行运行模型
使用命令 ollama run +模型 来启动模型进行交互。例如,运行 deepseek-r1:1.5b 模型:
ollama run deepseek-r1:1.5b
启动后,你会进入一个模型交互窗口,输入问题时,模型会自动生成响应:
>>> 你能做什么?
<think>
</think>
您好!我是DeepSeek-R1智能助手,我可以帮您:
- 回答各种问题和提供信息
- 协助处理文本任务
- 进行对话交流
- 提供学习和工作支持
- 解决技术问题
有什么具体需要帮助的吗?我很乐意为您服务!
注意: 如果是第一次运行某个模型,Ollama 会自动下载模型并进入交互模式。后续运行时会直接进入交互窗口。
四、访问Ollama Web界面
你可以通过浏览器访问 http://localhost:11434 来打开 Ollama 服务。如果显示 “Ollama is running”,说明服务已经成功启动。默认情况下,Ollama 仅监听本地回环地址(127.0.0.1),因此只能在本地访问。
如果希望通过局域网访问 Ollama(例如通过 Windows 的 IP 地址访问),需要设置环境变量 OLLAMA_HOST 为 0.0.0.0,使其监听所有网络接口。操作步骤如下:
1.打开环境变量设置,添加 OLLAMA_HOST=0.0.0.0。
2.设置完成后,重启 Ollama。
五、在 Coze Studio 配置 Ollama 模型
Coze Studio 是基于大型语言模型的 AI 应用开发平台,支持用户根据需求配置不同的模型服务。为了在 Coze Studio 中使用 Ollama 模型,首先需要克隆项目并配置所需的模型。
六、支持的模型服务
Coze Studio 支持多个大型语言模型,包括但不限于:
火山方舟 | Byteplus ModelArk
OpenAI
DeepSeek
Claude
Ollama
Qwen
Gemini
在 Coze Studio 中,所有模型的配置文件都位于 backend/conf/model 目录。每个文件对应一个可以访问的模型,Coze Studio 还提供了模板文件,帮助开发者快速配置常见模型。
七、配置 Ollama 模型
以在 Coze Studio 中配置 Ollama 的 deepseek-r1:1.5b 模型为例,配置步骤如下:
1.复制模板文件
在 backend/conf/model/template 目录下找到 Ollama 模型的配置模板,将其复制到backend/conf/model 目录下。
2.修改配置文件
打开复制后的文件,修改以下参数:
name:为模型设置一个名称,这个名称将在 Coze Studio 中显示。
meta.conn_config.base_url:设置 Ollama 服务的地址,例如 http://localhost:11434。
meta.conn_config.model:设置模型名称,如 deepseek-r1:1.5b。
3.重启 Coze Studio 服务
修改配置后,需要重启 Coze Studio 服务以使更改生效:
3.1 停止服务
# 进入 Docker 配置目录(如果不在该目录)
cd docker
# 停止所有相关容器服务
docker compose down
3.2 重启服务
# 重新启动所有服务(后台运行)
docker compose up -d
八、配置 Ollama 向量化模型
Coze Studio 支持配置自定义的向量化模型,用于处理知识库的向量化任务。你可以将 Ollama 的模型作为向量化模型来进行配置。
配置步骤
1.修改 .env 文件
打开 Coze Studio 的 .env 文件,找到与 Embedding 配置相关的部分。根据需要,将其修改为使用 Ollama 的向量模型:
# Embedding 配置
EMBEDDING_TYPE=Ollama
OLLAMA_EMBEDDING_BASE_URL=http://192.168.1.104:11434
OLLAMA_EMBEDDING_MODEL=nomic-embed-text
OLLAMA_EMBEDDING_DIMS=768
这里,我们使用 nomic-embed-text 模型作为向量化模型,且该模型的维度为 768。
2.重启 Coze Studio 服务
配置完成后,重启 Coze Studio 服务:
2.1 确保在正确的目录
# 如果不在 docker 目录,先进入
cd docker
2.2 停止服务
docker compose down
2.3 启动服务
docker compose up -d
九、结语
Ollama 提供了一个简单而高效的工具,帮助开发者下载、运行和管理开源的语言模型。而 Coze Studio 则为开发者提供了一个可视化的 AI 应用开发平台,让开发者可以轻松集成和使用 Ollama 模型,快速构建 AI Agent 和业务工作流。无论是构建智能助手、开发复杂的自然语言处理任务,还是集成向量化模型,Coze Studio 和 Ollama 都为开发者提供了强大的支持。



