unorouter vorgestellt: Eine API für jedes KI-Modell
Warum wir unorouter gebaut haben, wie das Routing zwischen Anbietern funktioniert und was als Nächstes kommt.
Wir haben unorouter gebaut, weil der Umgang mit einem Dutzend KI-Anbieter-Schlüsseln, jedem mit eigenen Rate Limits, Preismodellen und Ausfallzeiten, das Gegenteil von produktiv ist. Ein Endpunkt, jedes große Modell, intelligentes Failover.
Was es macht
unorouter bietet einen einzigen OpenAI-kompatiblen Endpunkt, der alle unterstützten Modelle (Claude, GPT, Gemini, DeepSeek, Mistral und mehr) bündelt. Deine Anwendung wählt das Modell per Namen aus. Wir kümmern uns transparent um Routing, Authentifizierung, Rate-Limit-Retries und Anbieter-Failover.
In 30 Sekunden loslegen
Richte jedes OpenAI-SDK auf unsere Basis-URL aus und übergib deinen unorouter-API-Schlüssel. Der Rest deines Codes bleibt unverändert.
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.unorouter.ai/v1",
apiKey: process.env.UNOROUTER_API_KEY,
});
const res = await client.chat.completions.create({
model: "claude-sonnet-4-6",
messages: [{ role: "user", content: "Hello!" }],
});Was anders ist
- Automatisches Failover. Wenn ein Anbieter gedrosselt oder offline ist, versuchen wir die Anfrage transparent über den nächsten gesunden Upstream.
- Preis pro Token, kein Abonnement nötig. Einmal aufladen, jedes Modell nutzen. Abonnements sind optional für Mengenrabatte.
- Alle wichtigen Endpunkt-Formate. OpenAI Chat Completions, Anthropic Messages, Google Gemini. Nutze das Format, das du bereits verwendest.
Was kommt als Nächstes
Wir liefern wöchentlich neue Features. Erwartet: mehr Modelle, schlauere Routing-Heuristiken, bessere Dashboards für Kosten und Latenz und tiefere Integrationen mit Tools, die Entwickler bereits nutzen (Claude Code, Codex CLI, Gemini CLI).
Bereit zum Ausprobieren? Hol dir einen API-Schlüssel oder durchsuche den Modellkatalog.