InkCop 支持 16+ 种 LLM 服务商。本页提供每个服务商的详细配置指南。
通用配置项
所有 LLM 服务商都有以下通用配置项:
| 配置项 | 说明 |
|---|---|
| Base URL | API 基础地址(通常已预填) |
| API Key | 从服务商获取的密钥 |
| Model | 使用的模型名称 |
| Temperature | 随机性(0-1,学术写作建议 0.3) |
| Top P | 采样范围(0-1,建议 0.7) |
| Stream | 流式输出(建议开启) |
| 启用 | 是否启用该服务商 |
国内服务商配置
阿里云百炼
- 访问 百炼控制台
- 创建 API Key
- 在 InkCop 中填入 Key
- 推荐模型:
qwen3-235b-a22b-instruct-2507
DeepSeek
- 访问 DeepSeek 平台
- 创建 API Key
- 推荐模型:
- 对话:
deepseek-chat - 推理:
deepseek-reasoner
- 对话:
Moonshot(Kimi)
- 访问 Moonshot 控制台
- 创建 API Key
- 推荐模型:
kimi-latest
国际服务商配置
OpenAI
- 访问 OpenAI API Keys
- 创建 API Key
- 推荐模型:
gpt-4o(综合)、gpt-4o-mini(快速)
Anthropic
- 访问 Anthropic Console
- 创建 API Key
- 推荐模型:
claude-4-sonnet
Google Gemini
- 访问 AI Studio
- 创建 API Key
- 推荐模型:
gemini-2.5-pro
本地部署
Ollama
- 从 ollama.com 下载安装 Ollama
- 拉取模型:
ollama pull qwen3:32b - InkCop 中使用默认配置(
http://localhost:11434/v1)
内置 Llama 服务
InkCop 内置了本地推理引擎,可在 设置 > 系统 > 硬件设置 中配置 GPU 参数。
ℹ️
你可以同时启用多个服务商。不同的 Agent 可以配置使用不同的服务商和模型,实现最优组合。