已发布
发布

UnoRouter 正式亮相:始终在线,始终是真实模型

UnoRouter 的存在价值:智能回退绕过提供方故障,逐模型真实性校验,确保您请求到的就是您要的模型。

·阅读时间 1 分钟·作者:UnoRouter 团队
公告产品

廉价 AI API 市场有两大顽疾。提供方频繁宕机,还有些会悄悄把您的请求转发到更弱的模型,却仍按旗舰模型向您收费。UnoRouter 正是为解决这两个问题而生。

提供方崩了,您依然在线

便宜的上游之所以便宜,是有原因的。它们会限流、降速,在高负载下丢弃连接。当一个质量下降时,UnoRouter 会自动把同一请求路由到另一个健康的提供方,服务相同模型。您的应用感知不到故障。您不用改代码。您只管继续交付。

每个模型都是真实模型

并非每个网关都名副其实。有些会把高端模型名转发到更便宜的替代品,指望您发现不了。UnoRouter 对列出的每个模型都校验真实性:我们端到端探测身份与行为,如果提供方撒谎,我们就断开它。您调用 Claude,就拿到 Claude。您调用 GPT,就拿到 GPT。

在您真正使用的终端里工作

模型只有在您的工具里能用才算有用。我们对每个模型端到端测试 HTTP 完成、流式响应和工具调用。这三项能力正是 AI 终端框架所依赖的。只要某个模型在我们的目录里,它就能在 Claude Code、Codex CLI、Gemini CLI 以及任何 OpenAI 兼容客户端中运行。不会在会话中途遇到意外的「不支持流式」故障。

接下来

我们每周发版。期待更多模型、更精细的健康信号驱动更聪明的回退、更丰富的成本与延迟看板,以及与您日常使用的终端和 IDE 更深度的集成。

准备试用?获取 API 密钥浏览模型目录

UnoRouter 正式亮相:始终在线,始终是真实模型 | UnoRouter