一文讲清楚 Coze Studio 配置 Ollama 模型方法

2025-11-10 08:55:06
文章摘要
本文详细介绍开源大模型平台Ollama的安装配置全流程,涵盖模型部署、Web访问及与Coze Studio的深度集成。通过本地化部署与向量化配置,为开发者提供从环境搭建到AI应用开发的完整解决方案,实现高效智能体构建。

一、Ollama下载与安装指南

Ollama 是一个强大的开源大型语言模型(LLM)平台,旨在为用户提供一个简洁易用的命令行界面和服务器,帮助用户轻松下载、运行和管理各种开源语言模型。通过 Ollama,用户可以便捷地加载并使用各种预训练的语言模型,支持多种自然语言处理任务,如文本生成、翻译、代码编写、问答等。

 

Ollama官网与下载地址

官网:https://ollama.com

下载地址:https://github.com/ollama/ollama

 

以下以 Windows 系统为例,介绍 Ollama 的安装和配置过程。

 

二、Ollama安装步骤

1.下载 Ollama 安装包

首先,从 GitHub 下载 Ollama 安装包。

 

2.运行安装程序

下载完成后,双击 OllamaSetup.exe 开始安装。默认情况下,Ollama 会被安装到 C:\Users\{user}\AppData\Local\Programs 目录。建议 C 盘至少保留 10GB 的剩余空间,因为 Ollama 会下载其他模型到该目录。

 

3.安装完成后自动启动

安装完成后,Ollama 会自动在电脑右下角显示图标,并会随系统启动。此时,你可以通过命令行运行模型,进行交互式会话。

 

三、在命令行运行模型

使用命令 ollama run +模型 来启动模型进行交互。例如,运行 deepseek-r1:1.5b 模型:

ollama run deepseek-r1:1.5b

启动后,你会进入一个模型交互窗口,输入问题时,模型会自动生成响应:

>>> 你能做什么?

<think>

</think>

 

您好!我是DeepSeek-R1智能助手,我可以帮您:

- 回答各种问题和提供信息

- 协助处理文本任务

- 进行对话交流

- 提供学习和工作支持

- 解决技术问题

 

有什么具体需要帮助的吗?我很乐意为您服务!

注意: 如果是第一次运行某个模型,Ollama 会自动下载模型并进入交互模式。后续运行时会直接进入交互窗口。

 

四、访问Ollama Web界面

你可以通过浏览器访问 http://localhost:11434 来打开 Ollama 服务。如果显示 “Ollama is running”,说明服务已经成功启动。默认情况下,Ollama 仅监听本地回环地址(127.0.0.1),因此只能在本地访问。

 

如果希望通过局域网访问 Ollama(例如通过 Windows 的 IP 地址访问),需要设置环境变量 OLLAMA_HOST 为 0.0.0.0,使其监听所有网络接口。操作步骤如下:

1.打开环境变量设置,添加 OLLAMA_HOST=0.0.0.0。

2.设置完成后,重启 Ollama。

 

五、在 Coze Studio 配置 Ollama 模型

Coze Studio 是基于大型语言模型的 AI 应用开发平台,支持用户根据需求配置不同的模型服务。为了在 Coze Studio 中使用 Ollama 模型,首先需要克隆项目并配置所需的模型。

 

六、支持的模型服务

Coze Studio 支持多个大型语言模型,包括但不限于:

火山方舟 | Byteplus ModelArk

OpenAI

DeepSeek

Claude

Ollama

Qwen

Gemini

 

在 Coze Studio 中,所有模型的配置文件都位于 backend/conf/model 目录。每个文件对应一个可以访问的模型,Coze Studio 还提供了模板文件,帮助开发者快速配置常见模型。

 

七、配置 Ollama 模型

以在 Coze Studio 中配置 Ollama 的 deepseek-r1:1.5b 模型为例,配置步骤如下:

1.复制模板文件

在 backend/conf/model/template 目录下找到 Ollama 模型的配置模板,将其复制到backend/conf/model 目录下。


2.修改配置文件

打开复制后的文件,修改以下参数:

name:为模型设置一个名称,这个名称将在 Coze Studio 中显示。

meta.conn_config.base_url:设置 Ollama 服务的地址,例如 http://localhost:11434。

meta.conn_config.model:设置模型名称,如 deepseek-r1:1.5b。


3.重启 Coze Studio 服务

修改配置后,需要重启 Coze Studio 服务以使更改生效:

3.1 停止服务

# 进入 Docker 配置目录(如果不在该目录)

cd docker

 

# 停止所有相关容器服务

docker compose down

3.2 重启服务

# 重新启动所有服务(后台运行)

docker compose up -d


八、配置 Ollama 向量化模型

Coze Studio 支持配置自定义的向量化模型,用于处理知识库的向量化任务。你可以将 Ollama 的模型作为向量化模型来进行配置。

 

配置步骤

1.修改 .env 文件

打开 Coze Studio 的 .env 文件,找到与 Embedding 配置相关的部分。根据需要,将其修改为使用 Ollama 的向量模型:

# Embedding 配置

EMBEDDING_TYPE=Ollama

OLLAMA_EMBEDDING_BASE_URL=http://192.168.1.104:11434

OLLAMA_EMBEDDING_MODEL=nomic-embed-text

OLLAMA_EMBEDDING_DIMS=768

这里,我们使用 nomic-embed-text 模型作为向量化模型,且该模型的维度为 768。

 

2.重启 Coze Studio 服务

配置完成后,重启 Coze Studio 服务:

2.1 确保在正确的目录

# 如果不在 docker 目录,先进入

cd docker

2.2 停止服务

docker compose down

2.3 启动服务

docker compose up -d


九、结语

Ollama 提供了一个简单而高效的工具,帮助开发者下载、运行和管理开源的语言模型。而 Coze Studio 则为开发者提供了一个可视化的 AI 应用开发平台,让开发者可以轻松集成和使用 Ollama 模型,快速构建 AI Agent 和业务工作流。无论是构建智能助手、开发复杂的自然语言处理任务,还是集成向量化模型,Coze Studio 和 Ollama 都为开发者提供了强大的支持。

声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。