前几天,分享了一个本地部署 DeepSeek-R1 的方法:在本地部署 DeepSeek-R1:使用 Ollama 和 Open WebUI 的详细指南

今天来讲讲,本地部署DeepSeek的一个重要应用场景:​搭建AI知识库​。

知识库的好处

  1. 数据安全与隐私保护​:数据存储在本地电脑上,保护数据安全和个人隐私,对企业尤为重要。
  2. 垂直领域知识​:通用大模型(比如ChatGPT)往往缺少特定领域的知识,每次提问前都需要提供背景信息并上传相关资料,以获得相对高质量的回答。而使用本地模型+知识库的方式,简单提问便能得到精准的定制化高质量回答。
  3. 知识积累​:使用时间越长,知识库越丰富,回答质量越高,从而形成正循环。
  4. 离线使用​:不需要联网,即使官方服务宕机或断网也能正常使用。

安装 Dify

Dify 是一个快速搭建 AI 应用的项目,支持创建 AI 聊天机器人、自动化客服等。本篇主要讲解如何用 Dify 搭建私人化知识库。

在本地找一个不包含中文的目录,进入 CMD 窗口,执行命令下载 Dify 项目:

git clone https://github.com/langgenius/dify
cd dify/docker
# 复制环境配置文件并重命名
copy .env.example .env

.env 是 Dify 的配置文件,保持默认配置即可。

启动 Docker,执行以下命令运行 Dify:

docker compose up -d

项目启动后,打开浏览器访问:http://127.0.0.1/apps/

首次进入需要设置管理员账号,并登录进入系统。

Dify配置

配置分为两个步骤:添加模型和添加知识库。

在页面右上角头像处点击设置 -> 模型供应商,选择 ​Ollama​,点击【添加模型】。

配置如下参数:

其余参数保持默认。

接下来,配置向量化模型 ​Nomic-Embed-Text​,它具备强大的长上下文处理能力。运行以下命令下载:

ollama pull nomic-embed-text

同样的方式,在 Ollama 下添加模型,参数如下:

其余参数保持默认。

保存后,就完成了两个模型的添加,效果如下图:

配置知识库

接下来,配置知识库。在首页切换到 知识库 菜单,创建一个知识库。

数据源有三种选择:导入已有文件、同步自 Notion 内容、同步自 Web 内容。这次搭建的是一个本地离线知识库,选择导入已有文件,点击【下一步】。

在检索设置中选择 【混合检索】,其他参数保持不变,保存并处理。

稍等片刻,知识库就设置完成了。

使用知识库

知识库建成后,该如何使用呢?

回到首页,切换到 工作室 菜单,点击 ​创建空白应用​。

应用类型选择 ​聊天助手​,填写应用名称和图标。

点击 ​创建​,在下方的上下文栏设置知识库。

点击 ​添加​​,在弹窗中选择刚刚创建的知识库。

设置完成后,即可发布使用。右上角点击【发布】 -> 【更新】 -> 【运行】。

运行后,页面自动跳转到对话页面,一个自带知识库的 AI 聊天助手就完成了。

来测试下。由于大模型没有自我意识,它对自己不了解。

提问“​what is DeepSeek V3?​”

官方的回答可能很简单,而包含 DeepSeek V3 论文知识库的本地模型,它的回答则会非常准确且详细,即使这个问题非常简单,也不需要联网搜索

效果立竿见影!

通过以上流程,您可以轻松地搭建一个本地的、个性化的 AI 知识库,为工作和学习提供更高效的支持。

最后修改:2025 年 02 月 06 日
如果觉得我的文章对你有用,请随意赞赏