最近 DeepSeek 太火了,许多人都在寻找一个完整的部署教程。看完这篇文章,基本上可以举一反三,部署任意大模型。本文与其说是以飞牛 NAS 为例,实际上是 Linux 的部署教程,适合在 Windows 和 macOS 上完成大模型的部署。

连接飞牛 SSH

此步骤主要是通过 SSH 连接飞牛终端界面,如果您方便进入此页面可以直接跳过这个步骤。
  1. 打开系统设置
  2. 开启 SSH 功能
  3. 打开 Shell 终端工具,连接飞牛终端。用户名和密码与飞牛登录账号密码相同。登录成功后,切换到 root 账号:

    # 输入以下命令进入 root 用户环境
    sudo -i

安装 Ollama 大模型运行环境

输入以下命令,按回车:

如果您是 Mac 或者 Windows 可直接访问 Ollama官网 下载安装。
curl -fsSL https://ollama.com/install.sh | sh

此时出现一个进度条,等待进度条完成即可。

如果您遇到下载失败,可以尝试以下加速线路:

加速线路一

curl -fsSL http://ollama.yigechengzi.com/1.sh | sh

加速线路二

curl -fsSL http://ollama.yigechengzi.com/2.sh | sh

经过上面的过程,安装完成。不过如果您的 NAS 没有 GPU,可能会提示只能在 CPU 上运行。

设置 Ollama 跨域

此处跳过会造成模型无法远程访问,尽量不要跳过。

继续输入以下命令:

vim /etc/systemd/system/ollama.service

按下 i 键进入编辑模式,添加以下两行:

[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

Esc 键后输入 :wq 保存并退出,再次执行以下两个命令:

sudo systemctl daemon-reload
sudo systemctl restart ollama

运行 DeepSeek 模型

官方提供了众多模型,如 1.5b7b 等。b 代表参数的数量(10亿)。

选择最小的 1.5b 模型,因为我的飞牛性能较差,且没有 GPU。

# 命令如下,如果需要下载 7b,则将冒号后边的 1.5b 改为 7b
ollama run deepseek-r1:1.5b

等待下载完成,下次运行该命令将直接进入对话终端。

大模型部署完成,我尝试问了“ni hao”,得到了回答。但是现在只能在终端对话,接下来需要安装前端页面。

安装前端对话页面

模型部署完成,但仅在命令行对话实在太简陋。LobeChat 是一个开源的大模型 UI 页面,支持各种模型。为了节约时间,这里用 Docker 部署它。

存储路径可以根据自己的需要选择,以下是 Docker Compose 模板:

version: '3.8'

services:
  lobe-chat:
    image: docker.1ms.run/lobehub/lobe-chat
    container_name: lobe-chat
    restart: always
    ports:
      - '3210:3210'
    environment:
      ACCESS_CODE: lobe66
      OLLAMA_PROXY_URL: http://host.docker.internal:11434

等待构建完成。

构建完成后,进入容器查看其运行状态。

浏览器访问:

http://您的IP:3210

可以看到 UI 页面已经安装完成。

LobeChat 对接 DeepSeek-R1

点击 LobeChat 图标。

在对话框中选择自己下载的模型。

首次进入需要输入密码,密码为 Docker Compose 中设置的 ACCESS_CODE(此处为 lobe66)。

至此,已完成大模型的整个部署过程。


END
本文作者:
文章标题: 在飞牛NAS上部署DeepSeek-R1大模型的完整指南
本文地址: https://www.haovps.top/archives/380.html
版权说明:若无注明,本文皆 高性能VPS推荐与IT技术博客 | Haovps.Top 原创,转载请保留文章出处。
cc
最后修改:2025 年 02 月 06 日
如果觉得我的文章对你有用,请随意赞赏