在本地运行大型语言模型(LLM)的世界中,LMStudio、Ollama、Jan.ai和HuggingFace等工具各展所长,提供了从桌面应用到开源模型支持的多样化解决方案。这些工具不仅易于使用,还强调了隐私保护和本地处理能力,让AI技术更加贴近用户的日常需求。

本文介绍了在本地运行大型语言模型(LLM)的25个工具。

1. LMStudio

LMStudio 是一个桌面应用程序,用户可以在本地电脑上运行和操作大型语言模型。它支持多种模型,并且注重隐私保护,无需将数据发送到远程服务器。

链接:LMStudio

2. Ollama

Ollama 是一款本地运行开源大型语言模型的工具,支持包括 Llama 3 和 Code Llama 在内的多种模型。它通过整合模型权重、配置和所需数据到一个 Modelfile 中,简化了模型部署和管理过程。

链接:Ollama

3. Hugging Face 和 Transformers

Hugging Face 是机器学习和人工智能领域的开源模型集散地,类似于 Docker Hub,提供了丰富的开源模型资源。此外,Hugging Face 的 transformers 库极大地简化了在本地部署和运行大型语言模型(LLM)的流程。

链接:Hugging Face

4. LangChain

LangChain 是一个用于构建 AI 应用程序的 Python 框架。通过提供抽象层和中间件,它使开发者能够便捷地在其支持的各种模型基础上开发 AI 应用。

链接:LangChain

5. Llama.cpp

Llama.cpp 是基于 C 和 C++ 开发的大型语言模型(LLM)推理引擎,特别为苹果硅芯片进行了性能优化,并能够高效运行 Meta 公司推出的 Llama2 模型。

链接:Llama.cpp

6. Lamafile

Mozilla 开发的 Lamafile 提供了一种便捷友好的方式来运行大型语言模型(LLMs),以其便携性和生成单文件可执行程序的特性而受到用户青睐。

链接:Lamafile

7. Jan.ai

Jan 能够将您的电脑转化为一台 AI 驱动的智能设备,通过在本地运行大型语言模型(LLMs),提供了一个以隐私保护为核心、优先考虑本地处理能力、并且完全开源的解决方案。

链接:Jan.ai

8. llm

LLM 是一个易用的工具,由 Simon Willison 开发,即使是编程新手也能轻松上手。它提供了一种简便的方法,允许用户在自己的计算机上下载和使用开源的大型语言模型(LLMs)。

链接:LLM

9. GPT4ALL

GPT4ALL 是一个易于使用的桌面应用程序,具有直观的 GUI。它支持本地模型运行,并提供与 OpenAI 的 API 密钥连接。

链接:GPT4ALL

10. H2OGPT

h2oGPT 简化了创建私人大型语言模型(LLM)的过程,集成了大型语言模型、嵌入模型和一个专用于文档嵌入的数据库,并提供了命令行和图形用户界面两种操作方式。

链接:H2OGPT

11. LocalLLM

LocalLLM 是开源的,允许用户在自己的计算机上直接运行大型语言模型,无需依赖远程服务器。

链接:LocalLLM

12. Koboldcpp

Koboldcpp 是一个开源项目,提供最新版本的下载,允许用户在本地运行大型语言模型,以实现高效的文本生成和处理。

链接:Koboldcpp

13. LocalAI

LocalAI 是一个免费的、开源的 OpenAI 替代品,它作为一个与 OpenAI API 规范兼容的 REST API 替代品,用于本地 AI 推理。

链接:LocalAI

14. EXUI

EXUI 是一个简单、轻量级的基于浏览器的 UI,用于使用 ExLlamaV2 运行本地推理。

链接:EXUI

15. vLLM

vLLM 是一个快速且易于使用的 LLM 推理和服务库,安装非常简单。

链接:vLLM

16. MLX

MLX 是苹果公司机器学习研究团队推出的一个用于机器学习研究的数组框架,专为优化苹果硬件上的性能而设计,并支持用户在本地部署和运行自己的大型语言模型(LLMs)。

链接:MLX

17. CTranslate2

CTranslate2 是一个 C++ 和 Python 库,用于高效执行 Transformer 模型的推理任务。

链接:CTranslate2

18. Pinokio

Pinokio 是一个提供多样化解决方案的平台,不仅限于托管大型语言模型(LLMs),还为用户提供更广泛的 AI 应用和服务。

链接:Pinokio

19. PowerInfer

PowerInfer 是一款 CPU/GPU 大型语言模型(LLM)推理引擎,通过利用激活局部性技术,优化模型在设备上的性能。

链接:PowerInfer

20. LlamaSharp

LlamaSharp 是对 llama.cpp 的 C#/.NET 语言绑定,为用户提供了一套高级 API,用于推理 LLaMA 模型。

链接:LlamaSharp

21. LMQL

LMQL 是一个可以本地安装的编程语言,提供了一个基于 Web 的 Playground IDE 供用户使用。

链接:LMQL

22. AvaPLS

Ava PLS 是一个开源桌面应用程序,可以在电脑上本地运行语言模型。

链接:AvaPLS

23. LiteLLM

LiteLLM 是一个轻量级的库,允许用户以 OpenAI 的格式统一调用各种大型语言模型(LLM)的 API。

链接:LiteLLM

24. HammerAI

HammerAI 不是一个典型的 LLM 应用程序,而是一个提供聊天体验的平台,通过 HammerAI,用户可以在自己的浏览器中与本地运行的角色扮演 AI 角色进行对话。

链接:HammerAI

25. Bedrock/VertexAI

Bedrock 和 VertexAI 是由 Google 和 Amazon 提供的解决方案,它们支持在云平台上高效托管和运行大型语言模型(LLMs)。

链接:Bedrock | VertexAI


END
本文作者:
文章标题: 本地运行大型语言模型(LLM)的25个工具
本文地址: https://www.haovps.top/archives/288.html
版权说明:若无注明,本文皆 高性能VPS推荐与IT技术博客 | Haovps.Top 原创,转载请保留文章出处。
cc
最后修改:2024 年 08 月 19 日
如果觉得我的文章对你有用,请随意赞赏