Copaw Models

CoPaw 模型配置

CoPaw 支持多种 LLM 提供商,包括云提供商和本地提供商。本文介绍如何配置模型提供商、选择模型以及使用本地模型。

云提供商

支持的云提供商

  • ModelScope:阿里云 ModelScope 平台
  • DashScope:阿里云通义千问平台
  • OpenAI:OpenAI 平台(需自定义)
  • 其他:可通过自定义提供商添加

配置云提供商

步骤

  1. 进入控制台 设置 → 模型
  2. 点击提供商卡片上的设置按钮
  3. 输入你的 API Key
  4. 点击保存,卡片状态变为「已授权」

自定义提供商

  1. 点击右侧 添加提供商
  2. 输入提供商信息:
  • Provider ID:提供商标识
  • Display Name:显示名称
  • Base URL:API 地址
  • Model List:模型列表

3. 点击创建

  1. 找到创建的提供商,点击设置,填写必要信息
  2. 选择保存,卡片状态变为「已授权」

撤销授权

打开提供商的设置对话框,点击撤销授权

,API Key 会被清除。

本地提供商

CoPaw 支持三种本地模型提供商:

1. llama.cpp / MLX

安装依赖

# llama.cpp

pip install 'copaw[llamacpp]'

MLX(仅 macOS)

pip install 'copaw[mlx]'

下载模型

  1. 进入控制台 设置 → 模型
  2. 点击本地提供商卡片上的模型按钮
  3. 点击下载模型,填写:
  • Repo ID(必填):如 Qwen/Qwen3-4B-GGUF
  • 文件名(可选):留空自动选择
  • 下载源:Hugging Face(默认)或 ModelScope

4. 点击下载

,等待下载完成

管理模型

:已下载的模型列在管理面板中,显示文件大小、来源标记(HF/MS)和删除按钮。

2. Ollama

前置条件

  1. ollama.com 安装 Ollama
  2. 安装 Ollama SDK:

pip install 'copaw[ollama]'

配置 Ollama

  1. 进入控制台 设置 → 模型
  2. 点击 Ollama 提供商卡片的设置按钮
  3. 在 API key 中填写内容(如直接填写为 ollama),点击保存
  4. 点击 Ollama 卡片中的模型按钮,点击下载模型
  5. 输入模型名称(如 mistral:7b、qwen3:8b)
  6. 点击下载模型,等待下载完成

管理模型

:已下载的模型列在管理面板中,显示大小和删除按钮。

与本地模型的区别

  • 模型来自 Ollama 守护进程(不由 CoPaw 直接下载)
  • 模型列表与 Ollama 自动同步
  • 支持热门模型:mistral:7b、qwen3:8b 等

>

⚠️ 运行 CoPaw 前必须将上下文长度设为 32K 以上

>
>

为了正常运行 CoPaw,必须将模型 context length 设置为 32K 或更高。

3. LM Studio

前置条件

  1. lmstudio.ai 安装 LM Studio
  2. 在 LM Studio 中加载模型并启动本地服务器(默认地址:http://localhost:1234)

配置 LM Studio

  1. 进入控制台 设置 → 模型
  2. 点击 LM Studio 提供商卡片的设置按钮
  3. 默认 Base URL 为 http://localhost:1234/v1,如有需要可修改,点击保存
  4. 点击模型查看 LM Studio 中当前已加载的模型
  5. 在提供商下拉菜单中选择 LM Studio,选择模型后点击保存

>

LM Studio 默认不需要 API Key。模型必须在 LM Studio 中加载后才会在 CoPaw 中显示。

>
>

⚠️ 运行 CoPaw 前必须将上下文长度设为 32K 以上

选择活跃模型

步骤

  1. 进入控制台 设置 → 模型
  2. 在顶部 LLM 配置提供商 下拉菜单中选择一个提供商(只显示已授权或有已下载模型的本地提供商)
  3. 模型 下拉菜单中选择一个模型
  4. 点击保存

模型对比

| 提供商类型 | 优点 | 缺点 | 适用场景 |

|----------|------|------|----------|

| 云提供商 | 性能好、模型新 | 需要联网、有费用 | 日常使用、复杂任务 |

| llama.cpp | 轻量级、跨平台 | 性能一般 | 资源受限环境 |

| MLX | macOS 优化好 | 仅支持 macOS | macOS 用户 |

| Ollama | 方便管理、模型多 | 需要额外安装 | 快速体验本地模型 |

| LM Studio | GUI 友好 | 仅桌面应用 | 不熟悉命令行的用户 |

常用模型推荐

云提供商模型

  • DashScope
  • qwen-plus:通用聊天
  • qwen-turbo:快速响应
  • qwen-max:复杂任务
  • ModelScope
  • qwen3.5-plus:通用聊天
  • qwen3.5-turbo:快速响应

本地模型

  • Qwen 系列
  • Qwen3-4B-GGUF:平衡性能和资源
  • Qwen3-7B-GGUF:更好性能
  • Mistral 系列
  • mistral-7b:通用性好
  • mistral-tiny:资源占用低

命令行管理

CoPaw 也提供 CLI 命令管理模型:

# Ollama 模型

copaw models ollama-pull <model_name>

copaw models ollama-list

copaw models ollama-remove <model_name>

查看当前模型

copaw config get agent.model_provider

copaw config get agent.model_name

相关资源

发表回复

后才能评论