Loading...
Ollama 是一个建立在开源推理引擎 llama.cpp 基础上的高效大模型推理工具框架。它支持在多种硬件环境(CPU、GPU等)下运行不同精度的 GGUF 格式模型,让本地设备也能便捷地处理大模型推理。借助简单的命令行操作,开发者...
在当今快节奏的世界中,跟上特定领域最新新闻的步伐可能会很具挑战性。如果我们能够利用生成式AI和代理的力量,创建一个完全在本地机器上运行的个性化新闻聚合器呢?在本文中,我们将探讨如何使用 Ollama 的 Llama 3.2 模型、Sw...
Ollama在自然语言处理(NLP)领域展现了强大的能力,能够理解和生成语言,极大丰富了人机交互的可能性。以下是如何将Ollama与Spring Boot项目集成的详细步骤。1. Ollama设置下载与安装: 从官方网站下载 Olla...
Ollama是一款开源工具,允许用户在本地轻松运行多种大型开源模型,包括清华大学的ChatGLM、阿里的千问,以及Meta的llama等。该工具目前兼容macOS、Linux和Windows三大主流操作系统。本文将详细介绍如何通过Do...
前言本文将介绍另一种本地知识库的部署方案:Ollama + MaxKB。这套方案安装简便,功能完善,能够在 30 分钟内上线一个基于本地大模型的知识库问答系统,并支持嵌入到第三方业务系统中。不过,如果你的电脑配置较低,回答响应时间可能...
前言在上一篇文章中,我们介绍了如何使用RAG技术构建本地知识库,基于 Ollama 和 Qwen2.5 实现了与本地私有知识库文件的自然语言交互。本文将继续探讨另一种实现方式,即通过 Ollama 与 RagFlow 的组合来实现,其...
什么是 RAGRAG,即检索增强生成(Retrieval-Augmented Generation),是一种先进的自然语言处理技术架构,它旨在克服传统大型语言模型(LLMs)在处理开放域问题时的信息容量限制和时效性不足。RAG的核心机...
上期的让语音助手接入AI,变得更聪明:MiGPT项目引起了不少小伙伴的兴趣,这一期我们继续探讨大模型的应用,这次我们会使用Ollama。通过这篇文章,我们将实现以下目标:在本地Mac上运行大模型,通过ngrok进行网络穿透,使所有能联...
让语音助手接入AI,变得更聪明:MiGPT项目众所周知,小爱和天猫精灵这类语音助手,在现如今显得不那么“聪明”了,现在人人都在聊AI,有办法让我们的语音助手也接入AI,变得聪明一点吗?答案是肯定的。GitHub上已经有开发者开源了自己...