Skip to content

Venice AI(Venice 推荐方案)

Venice 是我们推荐的 Venice 配置方案,提供隐私优先的推理服务,并可选择通过匿名代理访问专有模型。

Venice AI 提供以隐私为核心的 AI 推理服务,支持无审查模型,并通过匿名代理访问主流专有模型。所有推理默认隐私保护 — 不会用你的数据进行训练,不会记录日志。


为什么在 OpenClaw 中使用 Venice

  • 隐私推理 — 开源模型的私密推理(无日志记录)。
  • 无审查模型 — 当你需要时可以使用。
  • 匿名访问 — 当质量重要时,匿名访问专有模型(Opus/GPT/Gemini)。
  • OpenAI 兼容的 /v1 端点。

隐私模式

Venice 提供两种隐私级别 — 理解这一点是选择模型的关键:

模式说明模型
私密完全私密。提示/响应永远不会被存储或记录。临时性的。Llama、Qwen、DeepSeek、Venice Uncensored 等
匿名化通过 Venice 代理,元数据被剥离。底层提供商(OpenAI、Anthropic)看到的是匿名化的请求。Claude、GPT、Gemini、Grok、Kimi、MiniMax

功能特性

  • 隐私优先:在"私密"(完全私密)和"匿名化"(代理)模式之间选择
  • 无审查模型:访问无内容限制的模型
  • 主流模型访问:通过 Venice 的匿名代理使用 Claude、GPT-5.2、Gemini、Grok
  • OpenAI 兼容 API:标准 /v1 端点,易于集成
  • 流式传输:所有模型均支持
  • 函数调用:部分模型支持(请检查模型功能)
  • 视觉:具有视觉能力的模型支持
  • 无硬性速率限制:极端使用情况下可能会有公平使用限流

设置

1. 获取 API 密钥

  1. venice.ai 注册
  2. 前往 Settings → API Keys → Create new key
  3. 复制你的 API 密钥(格式:vapi_xxxxxxxxxxxx

2. 配置 OpenClaw

方式 A:环境变量

bash
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"

方式 B:交互式设置(推荐)

bash
openclaw onboard --auth-choice venice-api-key

这将:

  1. 提示输入你的 API 密钥(或使用现有的 VENICE_API_KEY
  2. 显示所有可用的 Venice 模型
  3. 让你选择默认模型
  4. 自动配置提供商

方式 C:非交互式

bash
openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. 验证设置

bash
openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"

模型选择

设置完成后,OpenClaw 会显示所有可用的 Venice 模型。根据你的需求选择:

  • 默认(我们的推荐)venice/llama-3.3-70b,私密且性能均衡。
  • 最佳综合质量venice/claude-opus-45,适合困难任务(Opus 仍然是最强的)。
  • 隐私:选择"私密"模型以获得完全私密的推理。
  • 能力:选择"匿名化"模型,通过 Venice 代理访问 Claude、GPT、Gemini。

随时更改默认模型:

bash
openclaw models set venice/claude-opus-45
openclaw models set venice/llama-3.3-70b

列出所有可用模型:

bash
openclaw models list | grep venice

通过 openclaw configure 配置

  1. 运行 openclaw configure
  2. 选择 Model/auth
  3. 选择 Venice AI

我应该使用哪个模型?

使用场景推荐模型原因
通用聊天llama-3.3-70b综合表现好,完全私密
最佳综合质量claude-opus-45Opus 仍然是困难任务中最强的
隐私 + Claude 质量claude-opus-45通过匿名代理获得最佳推理能力
编程qwen3-coder-480b-a35b-instruct代码优化,262k 上下文
视觉任务qwen3-vl-235b-a22b最佳私密视觉模型
无审查venice-uncensored无内容限制
快速 + 便宜qwen3-4b轻量级,仍有能力
复杂推理deepseek-v3.2强推理能力,私密

可用模型(共 25 个)

私密模型(15 个)— 完全私密,无日志记录

模型 ID名称上下文(Token)特性
llama-3.3-70bLlama 3.3 70B131k通用
llama-3.2-3bLlama 3.2 3B131k快速、轻量
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B131k复杂任务
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking131k推理
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct131k通用
qwen3-coder-480b-a35b-instructQwen3 Coder 480B262k编程
qwen3-next-80bQwen3 Next 80B262k通用
qwen3-vl-235b-a22bQwen3 VL 235B262k视觉
qwen3-4bVenice Small (Qwen3 4B)32k快速、推理
deepseek-v3.2DeepSeek V3.2163k推理
venice-uncensoredVenice Uncensored32k无审查
mistral-31-24bVenice Medium (Mistral)131k视觉
google-gemma-3-27b-itGemma 3 27B Instruct202k视觉
openai-gpt-oss-120bOpenAI GPT OSS 120B131k通用
zai-org-glm-4.7GLM 4.7202k推理、多语言

匿名化模型(10 个)— 通过 Venice 代理

模型 ID原始模型上下文(Token)特性
claude-opus-45Claude Opus 4.5202k推理、视觉
claude-sonnet-45Claude Sonnet 4.5202k推理、视觉
openai-gpt-52GPT-5.2262k推理
openai-gpt-52-codexGPT-5.2 Codex262k推理、视觉
gemini-3-pro-previewGemini 3 Pro202k推理、视觉
gemini-3-flash-previewGemini 3 Flash262k推理、视觉
grok-41-fastGrok 4.1 Fast262k推理、视觉
grok-code-fast-1Grok Code Fast 1262k推理、编程
kimi-k2-thinkingKimi K2 Thinking262k推理
minimax-m21MiniMax M2.1202k推理

模型发现

当设置了 VENICE_API_KEY 时,OpenClaw 会自动从 Venice API 发现模型。如果 API 不可达,则回退到静态目录。

/models 端点是公开的(列出模型不需要认证),但推理需要有效的 API 密钥。


流式传输和工具支持

功能支持情况
流式传输所有模型均支持
函数调用大多数模型支持(请检查 API 中的 supportsFunctionCalling
视觉/图像标记了"Vision"特性的模型支持
JSON 模式通过 response_format 支持

定价

Venice 使用积分制。查看 venice.ai/pricing 了解当前费率:

  • 私密模型:通常成本更低
  • 匿名化模型:与直接 API 定价相似 + 少量 Venice 费用

对比:Venice 与直接 API

方面Venice(匿名化)直接 API
隐私元数据剥离,匿名化关联你的账户
延迟+10-50ms(代理)直连
功能大多数功能支持完整功能
计费Venice 积分提供商计费

使用示例

bash
# 使用默认私密模型
openclaw chat --model venice/llama-3.3-70b

# 通过 Venice 使用 Claude(匿名化)
openclaw chat --model venice/claude-opus-45

# 使用无审查模型
openclaw chat --model venice/venice-uncensored

# 使用视觉模型处理图像
openclaw chat --model venice/qwen3-vl-235b-a22b

# 使用编程模型
openclaw chat --model venice/qwen3-coder-480b-a35b-instruct

故障排查

API 密钥未识别

bash
echo $VENICE_API_KEY
openclaw models list | grep venice

确保密钥以 vapi_ 开头。

模型不可用

Venice 模型目录会动态更新。运行 openclaw models list 查看当前可用的模型。某些模型可能暂时离线。

连接问题

Venice API 地址为 https://api.venice.ai/api/v1。确保你的网络允许 HTTPS 连接。


配置文件示例

json5
{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "llama-3.3-70b",
            name: "Llama 3.3 70B",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 131072,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

链接

用工程视角拆解 AI 智能体框架