v1 · 公测中
一把密钥。
通向每个模型。
面向 AI API 的现代网关。沿用你已经在用的 OpenAI SDK,一行配置切到 Claude、GPT、Gemini 以及任何本地模型;分钟级部署,完全掌控路由、成本与可观测性。
开源 · MIT 协议 · 自建部署或使用托管边缘节点
terminal
curl https://api.waytocc.com/v1/chat/completions \
-H "Authorization: Bearer $WAYTOCC_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-6",
"messages": [
{ "role": "user", "content": "Hello" }
]
}'功能
为把 AI 推到生产环境的团队打造。
waytocc 就是你想自己写但没时间的那个网关:与厂商无关、默认带可观测性、运维上让人省心。
统一 API
一个 OpenAI 兼容端点,同时对接 Claude、GPT、Gemini、Mistral 与本地模型,告别每个厂商一套 SDK。
智能路由
按成本、延迟或能力路由;某家服务降级时自动切到备用厂商;策略全部用配置描述。
内建可观测
每个 key 的用量、请求 trace、token 花销、错误率——开箱即用,不用再外挂监控。
配额与限流
按团队、按 key、按模型限定预算;硬上限避免账单失控,软上限提前告警。
响应缓存
对确定性提示做哈希缓存,在重试、回放和黄金测试场景下显著降本降延迟。
自建可控,MIT 协议
自有基础设施部署或使用托管边缘节点,二进制和 API 完全一致,无供应商锁定。
工作原理
三步从零跑通多厂商。
- 01
接入你的 SDK
把现有 OpenAI 客户端的 base URL 指向 waytocc,除一行配置外不需要改代码。
- 02
选择模型
直接使用任意厂商的模型 ID——Claude、GPT-4、Gemini Pro、本机 Llama,由 waytocc 处理协议转换。
- 03
上线生产
日志、用量、成本面板开箱即用;调整路由不需要重新发布客户端。
Drop-in 兼容
一个客户端,覆盖所有厂商。
waytocc 直接说 OpenAI 协议,你已有的 SDK、评测套件、Prompt 框架原样可用——切厂商只需要换一个字符串。
- OpenAI Node、Python、Go SDK
- 流式、function calling、图像理解
- Anthropic 与 Google 原生协议直通
app.ts
import OpenAI from "openai"
const client = new OpenAI({
baseURL: "https://api.waytocc.com/v1",
apiKey: process.env.WAYTOCC_KEY,
})
// Same client. Any provider.
const claude = await client.chat.completions.create({
model: "claude-sonnet-4-6",
messages: [{ role: "user", content: "Hi" }],
})
const gpt = await client.chat.completions.create({
model: "gpt-4o",
messages: [{ role: "user", content: "Hi" }],
})