最近,DeepSeek大模型在业界引起了广泛关注,值得一赞。因此,我亲自尝试了一下,然而由于用户过多,频繁出现“服务器繁忙,请稍后再试”的现象,体验感受堪忧。

作为一名程序员,我怎能对此坐视不理?我开始着手寻找DeepSeek的供应商,对比了阿里百炼的通义、字节火山的豆包、腾讯的混元、Fireworks、Together等常用供应商,发现其中有不少优质且稳定的选项。

因此,我决定接入微信公众号,享受更流畅的体验,并在微信上直接使用,绝对乐趣无穷。

深度学习模型

DeepSeek

CoW项目简介

ChatGPT-on-WeChat”(简称CoW)是一个开源项目,支持接入DeepSeek、OpenAI、通义、豆包、文心一言等多个大型模型到各种办公工具,包括微信公众号、飞书和钉钉等。

项目地址:CoW GitHub

CoW项目

1. 准备工作

为了顺利接入,您需要提前准备以下信息:

  1. 登录DeepSeek官网(或其他供应商)获取您专属的API-KEY。
  2. 登录微信公众号后台,在左侧菜单选择“设置与开发 - 基本配置 - 服务器配置”以获取您的专属URL、token等信息。
请务必提前准备好以上信息。

2. 配置CoW项目

  1. 克隆该项目到您的服务器上,可以选择LinuxDocker进行部署。
  2. 使用命令 pip3 install -r requirements.txt 安装必要的依赖(请确保使用Python 3.8及以上版本)。
  3. 打开 config.json 配置文件,填入准备好的密钥信息:
{
  "channel_type": "wechatmp",
  "model": "你的大模型,可以是deepseek,也可以是qwen等等",
  "open_ai_api_key": "apikey",
  "open_ai_api_base": "https://api.deepseek.com/v1",
  "single_chat_prefix": [""],
  "single_chat_reply_prefix": "",

  "wechatmp_app_id": "wx6e**********0b5",
  "wechatmp_app_secret": "a204ce**********a12007a5",
  "wechatmp_token": "保持和公众号一致即可",
  "wechatmp_aes_key": "Hego**************2VeCc8875",
  "wechatmp_port": 8080,

  "clear_memory_commands": ["#清除记忆"],
  "conversation_max_tokens": 1000,
  "expires_in_seconds": 3600,
  "character_desc": "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。",
  "temperature": 0.8,
  "subscribe_msg": "感谢您的关注!\n程序员博博公众号已接入DeepSeek-V3、阿里qwen-max等模型,可以自由对话。\n受微信限制,较长的输出会先回复一句【正在思考中】。如需清除记忆,请回复:#清除记忆",
  "use_linkai": false
}
  1. 最后,运行命令 python3 app.py 启动项目。
  2. 如果一切配置无误,恭喜您,您的公众号现在已经具备了DeepSeek大模型的能力,可以尽情使用了。
  3. 如遇到问题,请参考CoW的官方文档

3. 效果展示

我尝试了DeepSeek、qwen和文心一言等多个模型,发现其中Qwen表现最为稳定快速,因此最终选择了接入阿里的Qwen大模型。

效果展示1

效果展示2

总结

通过接入DeepSeek等大模型,微信公众号现在成为了一个方便实用的AI助手,用户可以在微信上直接提问,十分便捷。这一过程将带给您许多挑战,但解决它们的过程正是成长的机会。最终,我仅用下班时间两天便完成了接入,效果非常好。

希望大家有机会可以尝试接入,并享受这个过程的乐趣!

END
本文作者:
文章标题: 深度探索:如何将DeepSeek大模型接入微信公众号
本文地址: https://www.haovps.top/archives/403.html
版权说明:若无注明,本文皆 高性能VPS推荐与IT技术博客 | Haovps.Top 原创,转载请保留文章出处。
cc
最后修改:2025 年 02 月 11 日
如果觉得我的文章对你有用,请随意赞赏