ChatGPT-on-WeChat 部署教程:打造你的专属 AI 助手

📌 项目简介

ChatGPT-on-WeChat(又名 CowAgent)是一个基于大模型的超级 AI 助理开源项目,能够主动思考和任务规划、访问操作系统和外部资源、创造和执行 Skills、拥有长期记忆。支持接入飞书、钉钉、企业微信、微信公众号、网页等多种渠道,可选择 OpenAI/Claude/Gemini/DeepSeek/Qwen/GLM/Kimi 等主流大模型。

GitHub 地址:https://github.com/zhayujie/chatgpt-on-wechat

🌟 核心功能

  • 复杂任务规划:能够理解复杂任务并自主规划执行,持续思考和调用工具直到完成目标
  • 长期记忆:自动将对话记忆持久化至本地文件和数据库中,支持关键词及向量检索
  • 技能系统:内置多种技能,支持通过自然语言对话完成自定义 Skills 开发
  • 多模态消息:支持文本、图片、语音、文件等多类型消息处理
  • 多模型接入:支持 OpenAI、Claude、Gemini、DeepSeek、MiniMax、GLM、Qwen、Kimi 等
  • 多端部署:可接入网页、飞书、钉钉、微信公众号、企业微信应用

🚀 一键快速部署

项目提供了一键安装脚本,在终端执行以下命令即可:

bash <(curl -sS https://cdn.link-ai.tech/code/cow/run.sh)

脚本会自动完成安装、配置、启动等操作,非常适合新手使用。

对接飞书应用机器人

飞书应用权限设置

{
  "scopes": {
    "tenant": [
      "aily:message:read",
      "aily:message:write",
      "application:application.app_message_stats.overview:readonly",
      "cardkit:card:write",
      "im:app_feed_card:write",
      "im:chat",
      "im:chat.access_event.bot_p2p_chat:read",
      "im:chat.members:read",
      "im:chat:read",
      "im:chat:readonly",
      "im:chat:update",
      "im:message",
      "im:message.group_msg",
      "im:message.p2p_msg:readonly",
      "im:message.reactions:read",
      "im:message.reactions:write_only",
      "im:message:readonly",
      "im:message:recall",
      "im:message:send_as_bot",
      "im:message:update",
      "vc:meeting:readonly"
    ],
    "user": [
      "im:chat.access_event.bot_p2p_chat:read",
      "im:message",
      "im:message.pins:read",
      "im:message.pins:write_only",
      "im:message.reactions:read",
      "im:message.reactions:write_only",
      "im:message.urgent.status:write",
      "im:message:readonly",
      "im:message:recall",
      "im:message:update"
    ]
  }
}

📦 手动部署教程

1. 环境要求

  • 操作系统:Linux / MacOS / Windows
  • Python 版本:3.7 ~ 3.12(推荐 3.9)

2. 克隆项目

# 从 GitHub 克隆
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/

# 国内用户可使用 Gitee 镜像
git clone https://gitee.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/

3. 安装依赖

# 安装核心依赖(必选)
pip3 install -r requirements.txt

# 安装扩展依赖(可选,建议安装)
pip3 install -r requirements-optional.txt

4. 配置文件

复制配置模板并编辑:

cp config-template.json config.json

编辑 config.json 文件,填入你的配置:

{
  "channel_type": "web",
  "model": "gpt-4o-mini",
  "open_ai_api_key": "sk-xxxxxxxxxxxxxxxx",
  "open_ai_api_base": "https://api.openai.com/v1",
  "proxy": "",
  "agent": true
}

5. 启动运行

# 本地运行
python3 app.py

# Windows 用户
python app.py

运行后访问 http://localhost:9899/chat 即可在网页端对话。

🐳 Docker 部署

使用 Docker 部署无需下载源码和安装依赖,更加简单。

1. 安装 Docker

确保已安装 Docker 和 Docker Compose:

# 检查是否安装
docker -v
docker compose version

2. 下载配置文件

wget https://cdn.link-ai.tech/code/cow/docker-compose.yml

编辑 docker-compose.yml,填入你的 API Key 等配置。

3. 启动容器

# 启动容器
sudo docker compose up -d

# 查看运行状态
sudo docker ps

# 查看日志
sudo docker logs -f chatgpt-on-wechat

🔧 模型配置示例

OpenAI

{
  "model": "gpt-4o-mini",
  "open_ai_api_key": "sk-xxxxxxxx",
  "open_ai_api_base": "https://api.openai.com/v1"
}

DeepSeek

{
  "model": "deepseek-chat",
  "open_ai_api_key": "sk-xxxxxxxx",
  "open_ai_api_base": "https://api.deepseek.com/v1",
  "bot_type": "chatGPT"
}

通义千问 (Qwen)

{
  "model": "qwen-max",
  "dashscope_api_key": "sk-xxxxxxxx"
}

智谱 GLM

{
  "model": "glm-4-flash",
  "zhipu_ai_api_key": "xxxxxxxx"
}

Claude

{
  "model": "claude-3-5-sonnet-latest",
  "claude_api_key": "sk-ant-xxxxxxxx"
}

Gemini

{
  "model": "gemini-2.0-flash",
  "gemini_api_key": "xxxxxxxx"
}

📱 接入渠道配置

修改 config.json 中的 channel_type 参数即可切换接入渠道:

  • web - 网页端(默认)
  • terminal - 终端命令行
  • feishu - 飞书
  • dingtalk - 钉钉
  • wechatcom_app - 企业微信应用
  • wechatmp - 微信公众号(订阅号)
  • wechatmp_service - 微信公众号(服务号)

🖥️ 服务器后台运行

# 后台运行
nohup python3 app.py & tail -f nohup.out
# 查看进程
ps -ef | grep app.py | grep -v grep
# 停止进程
kill 
# 重新查看日志
tail -f nohup.out

⚠️ 注意事项

  • Agent 模式:Token 消耗较高,请根据效果及成本综合选择模型
  • 安全提醒:Agent 具有访问操作系统的能力,请谨慎选择部署环境
  • 国内网络:使用 OpenAI/Claude 等国外模型需配置代理
  • 推荐模型:Agent 模式推荐使用 MiniMax-M2.1、glm-4、qwen-max 等

🔗 相关链接

💡 有问题欢迎在评论区留言讨论!

发表回复

后才能评论