[CoPaw 教程系列] #03: Copaw Models
CoPaw 入门:模型配置详解
在 CoPaw 对话前,需要先配置模型。在控制台 → 设置 → 模型中可以快捷配置。
CoPaw 支持多种 LLM 提供商:
- 云提供商(需 API Key)
- 本地提供商(llama.cpp / MLX)
- Ollama 提供商
- LM Studio 提供商
- 自定义提供商
本文将详细介绍这几类提供商的配置方式。
配置云提供商
云提供商(包括 ModelScope、DashScope、Aliyun Coding Plan、OpenAI 和 Azure OpenAI)通过 API 调用远程模型,需要配置 API Key。
支持的云提供商
- ModelScope - 阿里云魔搭社区
- DashScope - 阿里云灵积
- Aliyun Coding Plan - 阿里云编码计划
- OpenAI - GPT 系列
- Azure OpenAI - 微软 Azure 版本
在控制台中配置
以 DashScope 为例:
- 打开控制台,进入 设置 → 模型
- 找到目标云提供商卡片(DashScope),点击 设置
- 输入你的 API key,点击 保存
- 保存后可以看到目标云提供商卡片右上角状态变成 可用
- 此时在上方的 LLM 配置 中:
- 提供商 对应的下拉菜单中可以选择目标云提供商
- 模型 对应的下拉菜单中出现一系列可选模型
- 选择目标模型(如 qwen3.5-plus),点击 保存
- 可以看到 LLM 配置栏右上角显示当前正在使用的模型提供商及模型
撤销授权
如果想撤销某个云提供商授权:
- 点击目标云提供商卡片的 设置
- 点击 撤销授权
- 二次确认撤销授权后,可将目标提供商的状态调整为 不可用
获取 API Key
ModelScope
- 访问:https://modelscope.cn/
- 登录后进入个人中心,创建 API Key
DashScope
- 访问:https://dashscope.console.aliyun.com/
- 登录后创建 API Key
OpenAI
- 访问:https://platform.openai.com/api-keys
- 登录后创建新的 API Key
Azure OpenAI
- 在 Azure 门户中创建 OpenAI 资源
- 在资源中获取 API Key 和端点
本地提供商(llama.cpp / MLX)
本地提供商在本地运行模型,无需 API Key
,数据不出本机。
前置条件
在 CoPaw 所在环境中安装对应后端:
# llama.cpp
pip install 'copaw[llamacpp]'
MLX(仅 macOS)
pip install 'copaw[mlx]'
下载模型
- 在控制台的模型页面可以找到 llama.cpp 和 MLX 对应的卡片
- 点击目标本地提供商(以 llama.cpp 为例)卡片的 模型
- 选择 下载模型
- 填写:
- 仓库 ID(必填)—— 如
Qwen/Qwen3-4B-GGUF - 来源 —— Hugging Face(默认)或 ModelScope
- 文件名(可选)—— 留空自动选择
- 点击 下载模型,可以看到正在下载模型,需要等待一段时间
- 模型下载完成后,可以看到本地提供商卡片右上角转为 可用 状态
选择模型
- 在上方的 LLM 配置 中:
- 提供商 对应的下拉菜单中可以选择本地提供商
- 模型 对应的下拉菜单中可选择刚刚添加的模型
- 点击 保存
- 可以看到 LLM 配置右上角显示本地提供商和选择的模型名称
管理已下载的模型
- 点击对应本地提供商卡片上的 模型
- 可以看到不同模型名称、大小、下载来源
- 如果想删除模型,点击对应模型最右侧的 垃圾桶图标
- 二次确认后即可删除
推荐模型
llama.cpp 推荐的 GGUF 格式模型:
Qwen/Qwen2.5-7B-Instruct-GGUF- 7B 指令微调模型Qwen/Qwen2.5-14B-Instruct-GGUF- 14B 指令微调模型mistralai/Mistral-7B-Instruct-v0.3-GGUF- Mistral 7B
MLX 推荐的模型(仅 macOS):
mlx-community/Qwen2.5-7B-Instruct-MLX- 7B 模型mlx-community/Qwen2.5-14B-Instruct-MLX- 14B 模型
性能优化建议
- 硬件要求
- 7B 模型:至少 8GB RAM
- 14B 模型:至少 16GB RAM
- 推荐使用 GPU 加速(llama.cpp 支持 CUDA、Metal 等)
- 量化选择
- Q4_K_M:平衡性能和质量(推荐)
- Q5_K_M:质量更高
- Q8_0:最高质量,但速度较慢
- 上下文长度
- 必须设置为 32K 或以上
- 在模型配置中调整
n_ctx参数
Ollama 提供商
Ollama 提供商对接本机安装的 Ollama 守护进程,使用其中的模型,无需由 CoPaw 直接下载模型文件,列表会与 Ollama 自动同步。
前置条件
- 从 ollama.com 安装 Ollama
- 在 CoPaw 所在虚拟环境中安装 Ollama:
pip install 'copaw[ollama]'
下载模型
- 在控制台的模型界面中,可以看到 ollama 提供商对应的卡片
- 点击右下角 设置,在配置 ollama 的页面中,填写 API Key。
- 此处可随意填写一个内容,例如 ollama
- 点击 保存
- 点击 模型,如果已经使用 Ollama 下载过一些模型,则可以看到对应的模型列表
- 如果还没有下载模型,或需要下载额外模型,点击 下载模型
- 填写 模型名称,如:
mistral:7bqwen2.5:7bllama3:8b
- 点击 下载模型,可以看到进入模型下载状态,等待模型下载完成
选择模型
- 下载完成后,可以在上方的 LLM 配置 中:
- 提供商 对应的下拉菜单中可以选择 Ollama
- 模型 对应的下拉菜单中可选择想使用的模型
- 点击 保存
- 可以看到 LLM 配置右上角显示 Ollama 提供商和选择的模型名称
管理模型
- 如果在过程中遇到 "Ollama SDK not installed. Install with: pip install 'copaw[ollama]'" 的提示,请先确认是否已经在 ollama.com 下载 Ollama,并在 CoPaw 所在虚拟环境中执行过
pip install 'copaw[ollama]' - 如果想删除某个模型,点击 Ollama 卡片右下角的 模型,在模型列表中,点击想要删除的模型右侧的 垃圾桶按钮,二次确认后即可删除
Docker 用户注意
如果 CoPaw 运行在 Docker 容器中,localhost 指向的是容器自身而非宿主机。请将 Ollama 的 Base URL 改为 http://host.docker.internal:11434(并在 docker run 命令中添加 --add-host=host.docker.internal:host-gateway
)。
推荐模型
Ollama 支持大量模型,推荐以下几款:
qwen2.5:7b- 阿里通义千问 7Bqwen2.5:14b- 阿里通义千问 14Bmistral:7b- Mistral 7Bllama3:8b- Meta Llama 3 8Bgemma2:9b- Google Gemma 2 9B
⚠️ 运行 CoPaw 前必须将上下文长度设为 32K 以上
为了正常运行 CoPaw,必须将模型 context length 设置为 32K 或更高
。注意,这会消耗较多的计算资源,请确保你的本地机器能够支持。
在 Ollama 中设置上下文长度的方法:
# 下载模型时指定上下文长度
ollama run qwen2.5:7b --num_ctx 32768
或在 Modelfile 中设置
FROM qwen2.5:7b
PARAMETER num_ctx 32768
LM Studio 提供商
LM Studio 提供商连接 LM Studio 桌面应用内置的 OpenAI 兼容服务器。模型在 LM Studio 的图形界面中管理,CoPaw 通过 /v1/models
端点自动发现已加载的模型。
前置条件
- 从 lmstudio.ai 安装 LM Studio
- 在 LM Studio 中加载模型并启动本地服务器(默认地址:
http://localhost:1234)
配置步骤
- 在控制台的模型页面中,可以看到 LM Studio 提供商对应的卡片
- 点击右下角 设置,默认 Base URL 为
http://localhost:1234/v1。
- 如果你在 LM Studio 中修改了端口,请相应调整
- 点击 保存
- 点击 模型 查看 LM Studio 中当前已加载的模型
- 如有需要,也可以手动添加模型 ID
- 在上方的 LLM 配置 中:
- 提供商 下拉菜单中选择 LM Studio
- 模型 下拉菜单中选择想使用的模型
- 点击 保存
注意事项
- LM Studio 默认不需要 API Key
- 如果你 in LM Studio 中启用了认证功能,请在 API Key 字段中填入对应的密钥
- 模型必须在 LM Studio 的图形界面中加载后才会在 CoPaw 中显示
Docker 用户注意
如果 CoPaw 运行在 Docker 容器中,localhost 指向的是容器自身而非宿主机。请将 LM Studio 的 Base URL 改为 http://host.docker.internal:1234/v1(并在 docker run 命令中添加 --add-host=host.docker.internal:host-gateway
)。
重要 — 上下文长度
LM Studio 加载模型时默认的上下文长度较小(通常为 2048 或 4096 tokens)。CoPaw 的系统提示词(AGENTS.md + SOUL.md + PROFILE.md)可能会超过此限制,导致报错:
"The number of tokens to keep from the initial prompt is greater than the context length"
解决方法:
在 LM Studio 中卸载模型,然后以更大的上下文长度重新加载(建议 16384 及以上)。
通过图形界面调整:
- 卸载模型
- 重新加载模型
- 在模型设置中调整 Context Length 为 32768 或更高
通过 CLI 操作:
lms unload --all && lms load <model> -c 16384
⚠️ 运行 CoPaw 前必须将上下文长度设为 32K 以上
为了正常运行 CoPaw,必须将模型 context length 设置为 32K 或更高
。注意,这会消耗较多的计算资源,请确保你的本地机器能够支持。
添加自定义提供商
除了内置的提供商外,CoPaw 还支持添加自定义提供商,适用于任何 OpenAI 兼容的 API。
配置步骤
- 在控制台的模型页面点击 添加提供商
- 填写 提供商 ID 和 显示名称,点击 创建
- 可以看见新添加的提供商卡片
- 点击 设置,填写:
- Base URL - API 端点地址
- API Key - 认证密钥
- 点击 保存
- 可以看到自定义提供商卡片中已经显示刚刚配置的 Base_URL 和 API Key
- 但此时右上角仍显示 不可用,还需要配置模型
- 点击 模型,填写 模型 ID,点击 添加模型
- 此时可见自定义提供商为 可用
- 在上方的 LLM 配置 中:
- 提供商 对应的下拉菜单中可以选择自定义提供商
- 模型 对应的下拉菜单中可选择刚刚添加的模型
- 点击 保存
- 可以看到 LLM 配置右上角显示自定义提供商的 ID 和选择的模型名称
注意事项
- 如果无法成功配置,请重点检查 Base URL、API Key 和 模型 ID 是否填写正确,尤其是模型的大小写
- 如果想删除自定义提供商,在对应卡片右下角点击 删除提供商,二次确认后可成功删除
使用场景
自定义提供商适用于:
- 使用第三方 OpenAI 兼容 API
- 使用自建的 LLM 服务
- 使用其他云服务商的 LLM(如 AWS Bedrock、Google Vertex AI 等)
模型选择建议
根据你的使用场景和硬件条件,选择合适的模型:
云提供商(推荐新手)
优点:
- 无需本地硬件
- 速度快
- 模型质量高
- 免去环境配置
推荐模型:
- DashScope Qwen3.5-plus(中文友好)
- OpenAI GPT-4o(综合能力最强)
- ModelScope 通义千问系列
本地提供商(推荐有 GPU 的用户)
优点:
- 数据完全本地
- 无 API 费用
- 隐私安全
缺点:
- 需要强大的硬件
- 速度较慢
推荐配置:
- GPU:至少 8GB VRAM(7B 模型)
- RAM:至少 16GB
- 推荐:NVIDIA RTX 3060 或更高
Ollama(推荐 macOS 用户)
优点:
- 安装简单
- 模型丰富
- 自动管理
推荐模型:
qwen2.5:7b- 平衡性能和质量qwen2.5:14b- 更强的能力llama3:8b- 英文场景
LM Studio(推荐 macOS/Windows 用户)
优点:
- 图形界面友好
- 模型管理方便
- 支持多种格式
注意:
- 必须设置 32K 以上上下文长度
- 资源消耗较大
性能对比
| 提供商类型 | 速度 | 成本 | 隐私 | 难度 |
|-----------|------|------|------|------|
| 云提供商 | ⭐⭐⭐⭐⭐ | $$$ | ⭐⭐ | ⭐ |
| 本地提供商 | ⭐⭐ | Free | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ |
| Ollama | ⭐⭐⭐ | Free | ⭐⭐⭐⭐⭐ | ⭐⭐ |
| LM Studio | ⭐⭐⭐ | Free | ⭐⭐⭐⭐⭐ | ⭐⭐ |
常见问题
Q1: 为什么本地模型报错上下文长度不足?
A: CoPaw 的系统提示词较长,需要至少 32K 的上下文长度。请在模型配置中设置 num_ctx 或 n_ctx
参数为 32768 或更高。
Q2: 如何切换模型?
A: 在控制台的 设置 → 模型 中,选择新的提供商和模型,点击 保存
即可。切换是即时生效的。
Q3: 能同时使用多个模型吗?
A: CoPaw 当前只支持一个活跃模型。但你可以随时在控制台中切换。
Q4: 本地模型太慢怎么办?
A: 考虑:
- 使用量化模型(Q4_K_M)
- 升级硬件(GPU)
- 切换到云提供商
Q5: Docker 中无法连接 Ollama/LM Studio?
A: 使用 host.docker.internal 代替 localhost,并确保在 docker run 时添加 --add-host=host.docker.internal:host-gateway
。
下一步
现在你已经了解了 CoPaw 支持的各种模型提供商及其配置方法。接下来建议:
- 阅读下一篇:CoPaw 入门:频道配置与接入 - 学习如何配置钉钉、飞书等频道
- 选择并配置模型:根据你的需求选择合适的提供商并配置模型
- 测试模型:在控制台的聊天界面测试模型是否正常工作
- 接入频道:配置频道后开始与 CoPaw 对话
总结
CoPaw 支持多种 LLM 提供商,满足不同用户的需求:
✅ 云提供商
- 快速、便捷、无需硬件
✅ 本地提供商
- 隐私、免费、数据本地
✅ Ollama
- 简单易用、模型丰富
✅ LM Studio
- 图形界面、易于管理
✅ 自定义提供商
- 灵活、支持任何 OpenAI 兼容 API
选择适合你的模型提供商,配置后即可开始使用 CoPaw。
相关资源
:
- CoPaw 官方文档:https://copaw.agentscope.io/
- CoPaw 模型文档:https://copaw.agentscope.io/docs/models
- CoPaw 配置文档:https://copaw.agentscope.io/docs/config
- Ollama 官网:https://ollama.com/
- LM Studio 官网:https://lmstudio.ai/







