Loading...
前言本文将介绍另一种本地知识库的部署方案:Ollama + MaxKB。这套方案安装简便,功能完善,能够在 30 分钟内上线一个基于本地大模型的知识库问答系统,并支持嵌入到第三方业务系统中。不过,如果你的电脑配置较低,回答响应时间可能...
前言在上一篇文章中,我们介绍了如何使用RAG技术构建本地知识库,基于 Ollama 和 Qwen2.5 实现了与本地私有知识库文件的自然语言交互。本文将继续探讨另一种实现方式,即通过 Ollama 与 RagFlow 的组合来实现,其...