打开浏览器→下载 Ollama→输入 1 条命令→搞定!这不是魔法,而是本地部署大语言模型的全新方式​。Ollama 简化了大型语言模型的运行,让每个人都能在本地轻松体验 AI 的强大。

但是,仅仅运行一个大语言模型还不够。如何让它真正理解你的数据,回答你的问题?这时,AnythingLLM 就派上用场了。

它能将你的文档、笔记、网页等各种数据源连接到本地 Ollama 运行的 DeepSeek 模型,构建一个真正属于你的、个性化的知识库问答系统。告别在海量信息中苦苦搜索,让 AI 成为你高效的知识助手!

关于引入 AnythingLLM 的理由,可以考虑以下几点:

  1. 数据连接​:AnythingLLM 可以连接各种数据源,例如本地文件、网站链接等。
  2. 多模型选择​:AnythingLLM 支持各种主流模型的 API 接入方式,包括 DeepSeek、OpenAI、Gemini 等等。
  3. 易用性​:它通常提供友好的用户界面,方便用户进行配置和管理。

1. Ollama 本地化部署 DeepSeek R1

Ollama 是一个用于本地运行大语言模型(LLMs)的开源工具,提供简单的界面和优化的推理引擎,使用户能够在个人设备上高效地加载、管理和运行 AI 模型,而无需依赖云端。

官网下载对应版本,然后根据自己本地配置运行命令

其中,deepseek-r1:1.5b 请根据本地硬件适配。

运行命令:

ollama run deepseek-r1:1.5b

介绍几个 Ollama 常用命令:

  1. 列出本地可用的模型列表:
ollama list
  1. 启动模型:
ollama run model_name
  1. 查看模型信息:
ollama show model_name
  1. 删除指定模型:
ollama rm model_name

2. 部署 AnythingLLM

2.1 下载安装

打开官网地址:AnythingLLM官网,根据自己的系统选择下载的版本。

默认路径安装,或者修改默认安装路径都可以。

安装完成界面:

点击完成自动跳转到 AnythingLLM 界面。

选择 ​Ollama​,AnythingLLM 会自动检测本地部署的模型,确保 Ollama 本地部署的模型正常运行。

模型配置

  1. LLM Selection(大语言模型选择)​:

选择名为 Ollama 的模型。说明用户的模型和聊天记录仅在运行 Ollama 模型的机器上可访问,这意味着数据不会在其他地方被存储或访问,从而增强了数据的安全性和隐私性。

  1. Embedding Preference(嵌入偏好)​:

使用名为 AnythingLLM Embedder 的嵌入工具。说明用户的文档文本是在 AnythingLLM 的实例上私密嵌入的,这意味着文本数据的处理和转换是在本地进行的,不会泄露给第三方。

  1. Vector Database(向量数据库)​:

使用了 LanceDB 作为向量数据库。说明用户的向量和文档文本都是存储在这个 AnythingLLM 实例上的,进一步强调了数据的私密性和安全性。

可以选择跳过用户反馈的调查问卷。

创建工作区,输入工作区名称。

可以在聊天窗口与之对话了。

2.2 搭建本地知识库

在左侧工作区找到上传按钮。

我上传了一个表格文件。

选中上传的文本,点击移动到工作区。

点击 ​Save and Embed​,对文档进行切分和词向量化。

完成后,点击图钉按钮,将这篇文档设置为当前对话的背景文档。

测试效果:

上传的知识库虚拟了 5 本书及其价格。随机选中其中一本询问价格,模型的回答准确而详细。

2.3 DeepSeek R1 API 接入 LLM

如果您的本地硬件条件有限,可以使用 DeepSeek 官网服务。

AnythingLLM 支持直接调用 DeepSeek 官方提供的 API 接口。在工作区右侧点击设置,选择聊天设置,可以更改 LLM 模型。

选择 DeepSeek,输入 API Key,并选择 DeepSeek R1 模型。

输入 DeepSeek API Key,选择 DeepSeek R1 模型即可。

更新工作区后就可以享受官方提供的大模型服务了。知识库部署和上述章节一致,只是调用的模型变为官方 API 接口。

看到这里,你是否发现 AI 私有化部署并没有想象中复杂? 技术平权化的浪潮早已到来,重要的是勇敢迈出第一步。

毕竟,当技术门槛不复存在,唯一限制我们的,就只剩下想象力。

记住,每个科技达人都是从点击『安装』按钮开始的!

希望本文能帮助你迈出第一步,探索本地AI的无限可能。如果你在部署过程中遇到任何问题,欢迎在评论区留言交流!


END
本文作者:
文章标题: 轻松搭建个性化知识库:Ollama与AnythingLLM的完美结合
本文地址: https://www.haovps.top/archives/376.html
版权说明:若无注明,本文皆 高性能VPS推荐与IT技术博客 | Haovps.Top 原创,转载请保留文章出处。
cc
最后修改:2025 年 02 月 06 日
如果觉得我的文章对你有用,请随意赞赏