InkCop 支持 16+ 种 LLM 服务商。本页提供每个服务商的详细配置指南。

通用配置项

所有 LLM 服务商都有以下通用配置项:

配置项说明
Base URLAPI 基础地址(通常已预填)
API Key从服务商获取的密钥
Model使用的模型名称
Temperature随机性(0-1,学术写作建议 0.3)
Top P采样范围(0-1,建议 0.7)
Stream流式输出(建议开启)
启用是否启用该服务商

国内服务商配置

阿里云百炼

  1. 访问 百炼控制台
  2. 创建 API Key
  3. 在 InkCop 中填入 Key
  4. 推荐模型:qwen3-235b-a22b-instruct-2507

DeepSeek

  1. 访问 DeepSeek 平台
  2. 创建 API Key
  3. 推荐模型:
    • 对话:deepseek-chat
    • 推理:deepseek-reasoner

Moonshot(Kimi)

  1. 访问 Moonshot 控制台
  2. 创建 API Key
  3. 推荐模型:kimi-latest

国际服务商配置

OpenAI

  1. 访问 OpenAI API Keys
  2. 创建 API Key
  3. 推荐模型:gpt-4o(综合)、gpt-4o-mini(快速)

Anthropic

  1. 访问 Anthropic Console
  2. 创建 API Key
  3. 推荐模型:claude-4-sonnet

Google Gemini

  1. 访问 AI Studio
  2. 创建 API Key
  3. 推荐模型:gemini-2.5-pro

本地部署

Ollama

  1. ollama.com 下载安装 Ollama
  2. 拉取模型:ollama pull qwen3:32b
  3. InkCop 中使用默认配置(http://localhost:11434/v1

内置 Llama 服务

InkCop 内置了本地推理引擎,可在 设置 > 系统 > 硬件设置 中配置 GPU 参数。

ℹ️

你可以同时启用多个服务商。不同的 Agent 可以配置使用不同的服务商和模型,实现最优组合。