经过几个月的更新 现在 LLMIO 的功能应该是很完善了

LLMIO

总结一些使用 LLMIO 最佳实践

API KEY 管理

为了统计不同项目对接 LLMIO 的使用情况, 应该为每个项目/客户端分配独立的 API KEY 并限制访问的模型范围, 必要的时候可以设置过期时间, 这样可以降低因为密钥泄漏的带来的损失. alt text

客户端配置

codex

配置文件位置: ~/.codex/config.toml

1model_provider = "codex"
2model = "gpt-5-codex"
3model_reasoning_effort = "high"
4disable_response_storage = true
5[model_providers.codex]
6name = "codex"
7base_url = "https://llmio.xxx.com/openai/v1"
8wire_api = "responses"
9env_key = "OPENAI_CODEX_API_KEY"

自行配置 OPENAI_CODEX_API_KEY 环境变量

新建模型 gpt-5-codex, 负载均衡策略推荐使用 Rotor , 同时关联你的上游. alt text

claude code

claude code可以完全使用环境变量配置(推荐) , 使用 LLMIO 之后, 应该不会再有通过 cli 切换的情况

配置环境变量

1export ANTHROPIC_BASE_URL=https://llmio.xxx.com/anthropic
2export ANTHROPIC_API_KEY=YOUR_API_KEY
3export ANTHROPIC_MODEL=cc-sonnet
4export ANTHROPIC_SMALL_FAST_MODEL=cc-small
5export ANTHROPIC_DEFAULT_HAIKU_MODEL=cc-haiku
6export ANTHROPIC_DEFAULT_OPUS_MODEL=cc-opus
7export ANTHROPIC_DEFAULT_SONNET_MODEL=cc-sonnet

同时在llmio中新建上面的四个模型,关联到对应提供商模型, 这里以 cc-sonnet 为例 alt text

沉浸式翻译

对于沉浸式翻译这种对提供商质量要求不高, 但是并发高的客户端, 推荐关联一些免费快速成本低的模型, 同时负载均衡策略使用 Lottery alt text

Cherry Studio

简单配置即可 alt text

Anthropic令牌计数配置

部分Anthropic上游不支持此接口, 所以 LLMIO 改为自定义此接口的上游, 接口主要用于claude code的/context统计上下文使用. alt text

熔断

可以降低轮询重复测试上游反复错误重试的问题, 必要时可以开启. alt text

注意事项

  • 部分上游可能不遵循标准鉴权 此时可以通过模型提供商关联编辑页面的自定义请求头实现