⚡ 5分钟接入指南

AI-Bridge 提供统一的 API 接口,兼容 OpenAI 格式,无需修改现有代码即可接入 Claude、GPT-4o、Gemini 等顶级模型。

  1. 注册账号并购买套餐

    前往 注册页 创建账号,然后在 产品页 购买 Token 套餐。Token 永不过期,按实际用量消耗。

  2. 创建 API 密钥

    登录后进入 API 密钥 页面,点击「创建新密钥」,复制生成的 ab-... 格式密钥。

  3. 配置客户端

    将客户端的 Base URL 指向 AI-Bridge,API Key 填入您的 ab-... 密钥,即可开始使用。

✓ 就这么简单! 无需配置代理,无需海外信用卡,直接在国内稳定访问 Claude、GPT-4o、Gemini。

🔧 客户端配置

Claude Code / Claude Desktop

在终端或 .env 文件中设置以下环境变量:

# Claude 客户端配置 ANTHROPIC_BASE_URL=https://your-server.com:3001 ANTHROPIC_API_KEY=ab-xxxxxxxxxxxxxxxx # 填入 AI-Bridge 密钥

OpenAI 格式客户端(通用)

所有支持自定义 Base URL 的 OpenAI 兼容客户端均可使用:

OPENAI_BASE_URL=https://your-server.com:3001/v1 OPENAI_API_KEY=ab-xxxxxxxxxxxxxxxx

Python SDK

import anthropic client = anthropic.Anthropic( base_url="https://your-server.com:3001", api_key="ab-xxxxxxxxxxxxxxxx", ) message = client.messages.create( model="claude-3-5-sonnet-20241022", max_tokens=1024, messages=[{"role": "user", "content": "Hello!"}] )

Node.js SDK

import Anthropic from '@anthropic-ai/sdk'; const client = new Anthropic({ baseURL: 'https://your-server.com:3001', apiKey: 'ab-xxxxxxxxxxxxxxxx', });

curl 直接调用

curl -X POST https://your-server.com:3001/v1/chat/completions \ -H "Authorization: Bearer ab-xxxxxxxxxxxxxxxx" \ -H "Content-Type: application/json" \ -d '{ "model": "claude-3-5-sonnet-20241022", "messages": [{"role": "user", "content": "你好"}] }'
提示: 请将 your-server.com 替换为实际服务器地址,ab-xxxxxxxxxxxxxxxx 替换为您的 AI-Bridge 密钥。密钥可在 API 密钥 页面创建。

🤖 支持的模型

AI-Bridge 支持国际顶级大模型,通过统一接口访问,系统自动处理协议转换和故障转移。

模型 提供商 优势 上下文 状态
Claude 3.5 Sonnet Anthropic 代码能力最强,推理准确 200K 推荐
Claude 3.5 Haiku Anthropic 响应速度快,成本低 200K 可用
Claude 3 Opus Anthropic 最强通用能力,适合复杂任务 200K 可用
GPT-4o OpenAI 多模态,通用能力强 128K 备用
GPT-4o Mini OpenAI 高性价比,快速响应 128K 备用
Gemini 2.0 Pro Google 超长上下文,大代码库分析 100万+ 备用
Gemini 2.0 Flash Google 极速响应,低延迟 100万+ 备用
说明: 实际可用模型取决于管理员配置的 API Key。如某模型不可用,系统会自动故障转移到其他模型。

🟠 Claude 模型

Claude 是 AI-Bridge 的首选模型,代码生成能力全球顶尖,支持超长上下文,特别适合 Claude Code 等编程工具。

可用 Model ID

Claude 3.5 Sonnet

代码能力最强,推荐首选

claude-3-5-sonnet-20241022

Claude 3.5 Haiku

速度最快,适合简单任务

claude-3-5-haiku-20241022

Claude 3 Opus

最强通用,复杂推理

claude-3-opus-20240229

专属接入方式(原生 Anthropic 格式)

# 使用 Anthropic 原生消息格式 curl -X POST https://your-server.com:3001/v1/messages \ -H "Authorization: Bearer ab-xxxxxxxxxxxxxxxx" \ -H "anthropic-version: 2023-06-01" \ -H "Content-Type: application/json" \ -d '{ "model": "claude-3-5-sonnet-20241022", "max_tokens": 2048, "messages": [{"role": "user", "content": "请写一个快速排序算法"}] }'

🟢 GPT 模型(OpenAI)

GPT-4o 是 OpenAI 的旗舰模型,多模态能力强,通用场景表现优异,作为 Claude 的备用选项。

可用 Model ID

GPT-4o

旗舰模型,多模态能力

gpt-4o

GPT-4o Mini

高性价比,快速响应

gpt-4o-mini

调用示例

curl -X POST https://your-server.com:3001/v1/chat/completions \ -H "Authorization: Bearer ab-xxxxxxxxxxxxxxxx" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-4o", "messages": [{"role": "user", "content": "帮我写一篇产品介绍"}] }'
Codex CLI 用户: 如需使用 Codex 等 OpenAI 专用工具,请参考 Codex CLI 接入 章节,使用 /v1/openai 专用路径。

🔵 Gemini 模型(Google)

Gemini 最大的优势是超长上下文(最高 200 万 Token),特别适合需要分析大型代码库或长文档的场景。

可用 Model ID

Gemini 2.0 Pro

100万+上下文,大代码库

gemini-2.0-pro-exp

Gemini 2.0 Flash

极速版,低延迟

gemini-2.0-flash-exp

调用示例

curl -X POST https://your-server.com:3001/v1/chat/completions \ -H "Authorization: Bearer ab-xxxxxxxxxxxxxxxx" \ -H "Content-Type: application/json" \ -d '{ "model": "gemini-2.0-pro-exp", "messages": [{"role": "user", "content": "分析这段代码..."}] }'

📡 流式输出(SSE)

AI-Bridge 完整支持 Server-Sent Events (SSE) 流式输出,Claude Code 等工具默认使用流式模式。

启用流式输出

在请求体中添加 "stream": true 即可:

# 流式输出,加 -N 参数实时显示 curl -N -X POST https://your-server.com:3001/v1/chat/completions \ -H "Authorization: Bearer ab-xxxxxxxxxxxxxxxx" \ -H "Content-Type: application/json" \ -d '{ "model": "claude-3-5-sonnet-20241022", "messages": [{"role": "user", "content": "写一首诗"}], "stream": true }' # 期望输出:逐行收到 data: {...},最后 data: [DONE]

Python 流式示例

import anthropic client = anthropic.Anthropic( base_url="https://your-server.com:3001", api_key="ab-xxxxxxxxxxxxxxxx", ) with client.messages.stream( model="claude-3-5-sonnet-20241022", max_tokens=1024, messages=[{"role": "user", "content": "讲个故事"}], ) as stream: for text in stream.text_stream: print(text, end="", flush=True)

🔄 自动故障转移

当某个模型 API 不可用时,AI-Bridge 自动切换到备用模型,确保服务 99%+ 可用性。

故障转移链路

用户请求 Claude 3.5 Sonnet ↓ Claude API 超时 / 失败 ↓ 自动切换到 GPT-4o (备用1) ↓ GPT-4o 失败 ↓ 自动切换到 Gemini 2.0 Pro (备用2) ↓ 返回响应给用户(包含实际使用的模型信息)

响应中包含实际使用的模型

// 响应示例:请求 claude,但系统自动用了 gpt-4o { "id": "chatcmpl-xxx", "model": "gpt-4o", // 实际使用的模型 "provider": "openai", // 实际使用的提供商 "choices": [...] }
Token 计费: 故障转移时,按实际使用的模型 Token 计费。不同模型的 Token 消耗倍率不同,请参考 套餐页面 了解详情。

💻 Codex CLI 接入

AI-Bridge 为 Codex CLI 等 OpenAI 原生工具提供专用透传路由 /v1/openai,完整兼容所有 OpenAI API。

配置方式

# Codex CLI 专用配置 export OPENAI_API_KEY=ab-xxxxxxxxxxxxxxxx # 填入 AI-Bridge 密钥 export OPENAI_BASE_URL=https://your-server.com:3001/v1/openai # 然后正常使用 codex 命令 codex "帮我修复这个 bug"

验证连接

# 测试模型列表接口(Codex 启动时会调用) curl https://your-server.com:3001/v1/openai/models \ -H "Authorization: Bearer ab-xxxxxxxxxxxxxxxx" # 测试流式对话 curl -N https://your-server.com:3001/v1/openai/chat/completions \ -H "Authorization: Bearer ab-xxxxxxxxxxxxxxxx" \ -H "Content-Type: application/json" \ -d '{"model":"gpt-4o","messages":[{"role":"user","content":"hi"}],"stream":true}'
前提条件: 管理员需在后台「系统设置」中配置 OPENAI_API_KEY。请联系服务提供商确认已完成配置。

❓ 常见问题

Token 会过期吗?
购买的 Token 永不过期,您随时可以使用。只要账号正常,Token 会一直保留在余额中。
如何计算 Token 用量?
Token 按照 API 实际返回的用量计算,包含输入(prompt)和输出(completion)Token。每次请求结束后,系统会根据返回的 usage 字段精确扣除。可在「额度管理」页面查看每次消耗明细。
不同模型的 Token 消耗一样吗?
不同模型 Token 消耗倍率不同。Claude 和 GPT-4o 等高端模型倍率较高,GPT-4o Mini 等轻量模型倍率较低。具体倍率请参考套餐页面的说明。
为什么请求返回的模型和我请求的不一样?
这是自动故障转移机制触发了。当您指定的模型暂时不可用时,系统会自动切换到备用模型确保请求成功。响应体中的 model 字段反映了实际使用的模型。如果不需要自动切换,可以联系管理员关闭此功能。
API 密钥和上游 Anthropic Key 有什么区别?
AI-Bridge API 密钥(ab-...):用于向 AI-Bridge 发起请求,消耗您购买的 Token 套餐。这是您日常在客户端填写的密钥。

上游 Anthropic Key:如果您有自己的 Anthropic 官方 API Key,可在「个人设置」中托管,此时系统优先使用您自己的 Key 而非平台公用 Key,额度独立计算。
如何申请退款?
未使用的 Token 额度可以申请退款。请在「我的订单」页面找到对应订单,或直接联系客服,提供订单号后由人工处理退款。
响应速度慢怎么办?
响应速度取决于:1)当前网络线路质量;2)所选模型本身的响应时间;3)上游 API 负载。
建议:优先使用 Claude 3.5 Haiku 或 GPT-4o Mini 等轻量模型;如速度持续异常,请联系管理员检查 IP 池状态。