5分钟部署本地私有大模型(Ollama 安装教程)

2025-11-05 14:57:01
文章摘要
厌倦了模型API的高额费用和恼人限速?想免费运行真正的AI大模型? 别再烦恼!本文手把手教你使用Ollama,在你的本地电脑上5分钟内拥有专属DeepSeek/千问等大模型,完全免费、无需租服务器、保护隐私!

很多人下载好了coze、dify,却在为api发愁。

顶级模型供应商都只提供免费额度,托管平台免费但有的速率限制。

如何能免费运行真正的AI大模型?

不需要租服务器,不需要复杂配置,跟着这篇文章,5分钟内你就能拥有自己的本地DeepSeek。

一、Ollama是什么?

Ollama是一个让你在本地运行大语言模型的开源工具。

能把复杂的模型部署流程简化成几条命令。

想象一下,原本需要配置Python环境、安装CUDA、调整模型参数这一系列操作,现在只需要:

ollama run qwen  # 一条命令启动


一、为什么是Ollama?

● 支持国产模型,千问、DeepSeek等都有适配版本

● 参数量可选 - 从1.5B到70B,按电脑配置选择

● 完全离线 - 数据不出本地,隐私有保障

关于硬件要求:

1.5B模型:8GB内存就能跑

7B模型:16GB内存推荐

不需要独立显卡(但有GPU会更快)


二、安装Ollama

步骤1:

下载安装包

官网:https://ollama.com

点击Download → 选择系统版本

 

步骤2:

直接双击 OllamaSetup.exe:

默认安装到C盘(无需修改)

等待自动安装完成

 

步骤3:

验证安装是否成功(可跳过)

# 按 Win+R,输入 cmd,回车
ollama

# 看到帮助信息就是安装成功
```

**方法2:浏览器验证**
```
访问:http://localhost:11434
显示 "Ollama is running" 即成功

三、下载并运行大模型

选择模型

访问 https://ollama.com/library,这里有模型仓库。以千问(Qwen)为例:


参数量(B = Billion = 10亿)越大,模型越聪明,但也越占资源。

这里我们以qwen3:8b为例,复制命令后打开cmd,粘贴并回车

常用命令:

ollama list              # 查看已下载的模型
ollama run deepseek:1.5b # 运行DeepSeek模型
ollama rm qwen3:8b        # 删除模型释放空间
ollama pull llama3       # 仅下载不运行


四、更改模型存储路径

默认模型存储在C盘,多下几个就爆了

Windows系统操作步骤:

右键此电脑 → 属性 → 高级系统设置


点击环境变量按钮


在用户变量区域,点击新建"变量名:OLLAMA_MODELS

变量值:D:\AI_Models

点击确定即可


五、搭配Web界面

命令行对话不够直观?

我们来部署一个网页版界面(Open WebUI)

它会自动识别Ollama的所有模型,支持多轮对话、历史记录。


步骤1:

下载Docker Desktop

访问:https://www.docker.com/products/docker-desktop

安装完成后会重启电脑


步骤2:

用 cmd执行命令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --restart always --name open-webui ghcr.io/open-webui/open-webui:main

代码解读: 别被这一长串代码吓到,它只是告诉 Docker 帮你做几件事:

-d:在后台运行

-p 3000:8080:将容器的 8080 端口映射到你电脑的 3000 端口

--name:给这个运行的程序起个名字叫 open-webui


步骤3:

自动拉取并运行镜像成功后,打开你的浏览器,访问地址:

http://localhost:3000

首次访问需要注册一个本地账号(数据只会保存在你的本地电脑上)

进入界面后,WebUI 会自动检测并关联到你的 Ollama

声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。
标签:
Ollama
本地模型部署