最近,DeepSeek大模型在业界引起了广泛关注,值得一赞。因此,我亲自尝试了一下,然而由于用户过多,频繁出现“服务器繁忙,请稍后再试”的现象,体验感受堪忧。
作为一名程序员,我怎能对此坐视不理?我开始着手寻找DeepSeek的供应商,对比了阿里百炼的通义、字节火山的豆包、腾讯的混元、Fireworks、Together等常用供应商,发现其中有不少优质且稳定的选项。
因此,我决定接入微信公众号,享受更流畅的体验,并在微信上直接使用,绝对乐趣无穷。
CoW项目简介
“ChatGPT-on-WeChat”(简称CoW)是一个开源项目,支持接入DeepSeek、OpenAI、通义、豆包、文心一言等多个大型模型到各种办公工具,包括微信公众号、飞书和钉钉等。
项目地址:CoW GitHub
1. 准备工作
为了顺利接入,您需要提前准备以下信息:
- 登录DeepSeek官网(或其他供应商)获取您专属的API-KEY。
- 登录微信公众号后台,在左侧菜单选择“设置与开发 - 基本配置 - 服务器配置”以获取您的专属URL、token等信息。
请务必提前准备好以上信息。
2. 配置CoW项目
- 克隆该项目到您的服务器上,可以选择Linux或Docker进行部署。
- 使用命令
pip3 install -r requirements.txt
安装必要的依赖(请确保使用Python 3.8及以上版本)。 - 打开
config.json
配置文件,填入准备好的密钥信息:
{
"channel_type": "wechatmp",
"model": "你的大模型,可以是deepseek,也可以是qwen等等",
"open_ai_api_key": "apikey",
"open_ai_api_base": "https://api.deepseek.com/v1",
"single_chat_prefix": [""],
"single_chat_reply_prefix": "",
"wechatmp_app_id": "wx6e**********0b5",
"wechatmp_app_secret": "a204ce**********a12007a5",
"wechatmp_token": "保持和公众号一致即可",
"wechatmp_aes_key": "Hego**************2VeCc8875",
"wechatmp_port": 8080,
"clear_memory_commands": ["#清除记忆"],
"conversation_max_tokens": 1000,
"expires_in_seconds": 3600,
"character_desc": "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。",
"temperature": 0.8,
"subscribe_msg": "感谢您的关注!\n程序员博博公众号已接入DeepSeek-V3、阿里qwen-max等模型,可以自由对话。\n受微信限制,较长的输出会先回复一句【正在思考中】。如需清除记忆,请回复:#清除记忆",
"use_linkai": false
}
- 最后,运行命令
python3 app.py
启动项目。 - 如果一切配置无误,恭喜您,您的公众号现在已经具备了DeepSeek大模型的能力,可以尽情使用了。
- 如遇到问题,请参考CoW的官方文档。
3. 效果展示
我尝试了DeepSeek、qwen和文心一言等多个模型,发现其中Qwen表现最为稳定快速,因此最终选择了接入阿里的Qwen大模型。
总结
通过接入DeepSeek等大模型,微信公众号现在成为了一个方便实用的AI助手,用户可以在微信上直接提问,十分便捷。这一过程将带给您许多挑战,但解决它们的过程正是成长的机会。最终,我仅用下班时间两天便完成了接入,效果非常好。
希望大家有机会可以尝试接入,并享受这个过程的乐趣!