Copaw Models
CoPaw 模型配置
CoPaw 支持多种 LLM 提供商,包括云提供商和本地提供商。本文介绍如何配置模型提供商、选择模型以及使用本地模型。
云提供商
支持的云提供商
- ModelScope:阿里云 ModelScope 平台
- DashScope:阿里云通义千问平台
- OpenAI:OpenAI 平台(需自定义)
- 其他:可通过自定义提供商添加
配置云提供商
步骤
:
- 进入控制台 设置 → 模型
- 点击提供商卡片上的设置按钮
- 输入你的 API Key
- 点击保存,卡片状态变为「已授权」
自定义提供商
:
- 点击右侧 添加提供商
- 输入提供商信息:
- Provider ID:提供商标识
- Display Name:显示名称
- Base URL:API 地址
- Model List:模型列表
3. 点击创建
- 找到创建的提供商,点击设置,填写必要信息
- 选择保存,卡片状态变为「已授权」
撤销授权
打开提供商的设置对话框,点击撤销授权
,API Key 会被清除。
本地提供商
CoPaw 支持三种本地模型提供商:
1. llama.cpp / MLX
安装依赖
:
# llama.cpp
pip install 'copaw[llamacpp]'
MLX(仅 macOS)
pip install 'copaw[mlx]'
下载模型
:
- 进入控制台 设置 → 模型
- 点击本地提供商卡片上的模型按钮
- 点击下载模型,填写:
- Repo ID(必填):如 Qwen/Qwen3-4B-GGUF
- 文件名(可选):留空自动选择
- 下载源:Hugging Face(默认)或 ModelScope
4. 点击下载
,等待下载完成
管理模型
:已下载的模型列在管理面板中,显示文件大小、来源标记(HF/MS)和删除按钮。
2. Ollama
前置条件
:
- 从 ollama.com 安装 Ollama
- 安装 Ollama SDK:
pip install 'copaw[ollama]'
配置 Ollama
:
- 进入控制台 设置 → 模型
- 点击 Ollama 提供商卡片的设置按钮
- 在 API key 中填写内容(如直接填写为 ollama),点击保存
- 点击 Ollama 卡片中的模型按钮,点击下载模型
- 输入模型名称(如 mistral:7b、qwen3:8b)
- 点击下载模型,等待下载完成
管理模型
:已下载的模型列在管理面板中,显示大小和删除按钮。
与本地模型的区别
:
- 模型来自 Ollama 守护进程(不由 CoPaw 直接下载)
- 模型列表与 Ollama 自动同步
- 支持热门模型:mistral:7b、qwen3:8b 等
>
⚠️ 运行 CoPaw 前必须将上下文长度设为 32K 以上
>
>
为了正常运行 CoPaw,必须将模型 context length 设置为 32K 或更高。
3. LM Studio
前置条件
:
- 从 lmstudio.ai 安装 LM Studio
- 在 LM Studio 中加载模型并启动本地服务器(默认地址:http://localhost:1234)
配置 LM Studio
:
- 进入控制台 设置 → 模型
- 点击 LM Studio 提供商卡片的设置按钮
- 默认 Base URL 为 http://localhost:1234/v1,如有需要可修改,点击保存
- 点击模型查看 LM Studio 中当前已加载的模型
- 在提供商下拉菜单中选择 LM Studio,选择模型后点击保存
>
LM Studio 默认不需要 API Key。模型必须在 LM Studio 中加载后才会在 CoPaw 中显示。
>
>
⚠️ 运行 CoPaw 前必须将上下文长度设为 32K 以上
选择活跃模型
步骤
:
- 进入控制台 设置 → 模型
- 在顶部 LLM 配置 的 提供商 下拉菜单中选择一个提供商(只显示已授权或有已下载模型的本地提供商)
- 在 模型 下拉菜单中选择一个模型
- 点击保存
模型对比
| 提供商类型 | 优点 | 缺点 | 适用场景 |
|----------|------|------|----------|
| 云提供商 | 性能好、模型新 | 需要联网、有费用 | 日常使用、复杂任务 |
| llama.cpp | 轻量级、跨平台 | 性能一般 | 资源受限环境 |
| MLX | macOS 优化好 | 仅支持 macOS | macOS 用户 |
| Ollama | 方便管理、模型多 | 需要额外安装 | 快速体验本地模型 |
| LM Studio | GUI 友好 | 仅桌面应用 | 不熟悉命令行的用户 |
常用模型推荐
云提供商模型
- DashScope:
- qwen-plus:通用聊天
- qwen-turbo:快速响应
- qwen-max:复杂任务
- ModelScope:
- qwen3.5-plus:通用聊天
- qwen3.5-turbo:快速响应
本地模型
- Qwen 系列:
- Qwen3-4B-GGUF:平衡性能和资源
- Qwen3-7B-GGUF:更好性能
- Mistral 系列:
- mistral-7b:通用性好
- mistral-tiny:资源占用低
命令行管理
CoPaw 也提供 CLI 命令管理模型:
# Ollama 模型
copaw models ollama-pull <model_name>
copaw models ollama-list
copaw models ollama-remove <model_name>
查看当前模型
copaw config get agent.model_provider
copaw config get agent.model_name







