Loading...
最近,我发现了一个特别有趣的项目——smolGPT,它是一个极简的 PyTorch 实现,能够让我们从零训练一个属于自己的小型 GPT 模型。该项目的核心目标是教育用途,代码精炼,没有多余的抽象封装,使人可以直接理解大语言模型(LLM...
在日常的开发工作中,我们经常需要应对各种繁琐的任务,从调试代码到部署上线,再到一些重复性高、又容易出错的工作。有没有想过,如果有一个“聪明”的工具,能够自动化这些任务,解放我们的双手,让我们专注于更具创意的部分,那该多好?好消息是,这...
使用 DeepSeek-V3 模型进行 AI 辅助编程:Cursor 的配置指南DeepSeek-V3 的性价比令人惊叹,每百万输入 tokens 仅需 0.1 元 (缓存命中) / 1 元 (缓存未命中),每百万输出 tokens ...
最近 DeepSeek 太火了,许多人都在寻找一个完整的部署教程。看完这篇文章,基本上可以举一反三,部署任意大模型。本文与其说是以飞牛 NAS 为例,实际上是 Linux 的部署教程,适合在 Windows 和 macOS 上完成大模...
在 VSCode 中使用 Cline + DeepSeek 进行 AI 辅助编程的配置指南本教程主要涉及如何在 VSCode 及其衍生 IDE 中配置和使用 Cline + DeepSeek 进行 AI 辅助编程。可以使用任何基于 V...
Ollama 是一个开源工具,允许用户在本地计算机上轻松运行、部署和交互大型语言模型(LLMs),如 LLaMA 2、Mistral、Gemini 等。它简化了模型的管理和调用流程,适合开发者和研究者进行本地实验或开发 AI 应用。一...
🔥 纯干货教程,无需GPU也能玩转大模型!三平台通用教程带你20分钟搭建私有AI大脑🔥一、环境准备:Ollama全平台安装指南▍Windows玩家专属通道访问Ollama官网下载.exe安装包双击安装后自动创建环境变量Win+R打开C...
打开浏览器→下载 Ollama→输入 1 条命令→搞定!这不是魔法,而是本地部署大语言模型的全新方式。Ollama 简化了大型语言模型的运行,让每个人都能在本地轻松体验 AI 的强大。但是,仅仅运行一个大语言模型还不够。如何让它真...
前几天,分享了一个本地部署 DeepSeek-R1 的方法:在本地部署 DeepSeek-R1:使用 Ollama 和 Open WebUI 的详细指南今天来讲讲,本地部署DeepSeek的一个重要应用场景:搭建AI知识库。知识库...
近年来,人工智能(AI)技术的迅猛发展让大型语言模型(LLM)成为科技行业的焦点。然而,许多开发者和企业希望能够在本地环境中部署 AI 模型,以满足数据隐私、定制化需求或离线使用的场景。DeepSeek-R1 作为国产高性能 AI 推...