最近 DeepSeek 太火了,许多人都在寻找一个完整的部署教程。看完这篇文章,基本上可以举一反三,部署任意大模型。本文与其说是以飞牛 NAS 为例,实际上是 Linux 的部署教程,适合在 Windows 和 macOS 上完成大模型的部署。
连接飞牛 SSH
此步骤主要是通过 SSH 连接飞牛终端界面,如果您方便进入此页面可以直接跳过这个步骤。
- 打开系统设置
- 开启 SSH 功能
打开 Shell 终端工具,连接飞牛终端。用户名和密码与飞牛登录账号密码相同。登录成功后,切换到 root 账号:
# 输入以下命令进入 root 用户环境 sudo -i
安装 Ollama 大模型运行环境
输入以下命令,按回车:
如果您是 Mac 或者 Windows 可直接访问 Ollama官网 下载安装。
curl -fsSL https://ollama.com/install.sh | sh
此时出现一个进度条,等待进度条完成即可。
如果您遇到下载失败,可以尝试以下加速线路:
加速线路一
curl -fsSL http://ollama.yigechengzi.com/1.sh | sh
加速线路二
curl -fsSL http://ollama.yigechengzi.com/2.sh | sh
经过上面的过程,安装完成。不过如果您的 NAS 没有 GPU,可能会提示只能在 CPU 上运行。
设置 Ollama 跨域
此处跳过会造成模型无法远程访问,尽量不要跳过。
继续输入以下命令:
vim /etc/systemd/system/ollama.service
按下 i
键进入编辑模式,添加以下两行:
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
按 Esc
键后输入 :wq
保存并退出,再次执行以下两个命令:
sudo systemctl daemon-reload
sudo systemctl restart ollama
运行 DeepSeek 模型
官方提供了众多模型,如 1.5b
、7b
等。b
代表参数的数量(10亿)。
选择最小的 1.5b
模型,因为我的飞牛性能较差,且没有 GPU。
# 命令如下,如果需要下载 7b,则将冒号后边的 1.5b 改为 7b
ollama run deepseek-r1:1.5b
等待下载完成,下次运行该命令将直接进入对话终端。
大模型部署完成,我尝试问了“ni hao”,得到了回答。但是现在只能在终端对话,接下来需要安装前端页面。
安装前端对话页面
模型部署完成,但仅在命令行对话实在太简陋。LobeChat 是一个开源的大模型 UI 页面,支持各种模型。为了节约时间,这里用 Docker 部署它。
存储路径可以根据自己的需要选择,以下是 Docker Compose 模板:
version: '3.8'
services:
lobe-chat:
image: docker.1ms.run/lobehub/lobe-chat
container_name: lobe-chat
restart: always
ports:
- '3210:3210'
environment:
ACCESS_CODE: lobe66
OLLAMA_PROXY_URL: http://host.docker.internal:11434
等待构建完成。
构建完成后,进入容器查看其运行状态。
浏览器访问:
http://您的IP:3210
可以看到 UI 页面已经安装完成。
LobeChat 对接 DeepSeek-R1
点击 LobeChat 图标。
在对话框中选择自己下载的模型。
首次进入需要输入密码,密码为 Docker Compose 中设置的 ACCESS_CODE
(此处为 lobe66)。
至此,已完成大模型的整个部署过程。