Jetzt verfügbar
U
Unknown

trinity-large-thinking

Trinity Large Thinking is a powerful open source reasoning model from the team at Arcee AI. It shows strong performance in PinchBench, agentic workloads, and reasoning tasks. Launch video: https://youtu.be/Gc82AXLa0Rg?si=4RLn6WBz33qT--B7...

TextReasoningToolsOpen Weights262.1KCache
InputGratis
OutputGratis
Kontext262.1K
Endpunkteopenai

Funktionen

ReasoningToolsCacheStrukturiert

Modalitäten

Eingabe
text
Ausgabe
text

Kurzstatistik

Kontextfenster262.1K
Max. Ausgabe262.1K
TokenizerOther

Leistung

Lade Leistungsdaten...

Unterstützte Parameter

ParameterImmerStandard
frequency_penalty(nicht senden)
include_reasoning
logit_bias
max_tokens
presence_penalty(nicht senden)
reasoning
repetition_penalty(nicht senden)
response_format
seed
stop
structured_outputs
temperature0.3
tool_choice
tools
top_k(nicht senden)
top_p0.8
§ 01

Preise

Input-Preis$0.00 · 1M Tokens
Output-Preis$0.00 · 1M Tokens
Kontextfenster262.1K Tokens
Kompatible Endpunkteopenai
AnbieterUnknown
§ 02

trinity-large-thinking aus deinem Code aufrufen

Richte jedes OpenAI-kompatible SDK auf UnoRouter aus und frage das Modell per Namen an. Ersetze YOUR_API_KEY durch einen echten Schlüssel aus deinem Dashboard.

bash
curl https://api.unorouter.ai/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "trinity-large-thinking",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Melde dich an, um deinen API-Key automatisch einzutragen

§ 03

Häufige Fragen

Was kostet trinity-large-thinking pro 1M Tokens?

Input kostet $0.00 pro 1M Tokens, Output $0.00 pro 1M Tokens. Abrechnung erfolgt pro Token, ohne Aufrundung auf Batch-Größen.

Wie greife ich per API auf trinity-large-thinking zu?

Sende Anfragen an den UnoRouter-Endpunkt /v1/chat/completions mit model=trinity-large-thinking. Jede OpenAI-kompatible Client-Bibliothek funktioniert. Die Authentifizierung erfolgt über einen Standard-Bearer-Token.

Wie groß ist das Kontextfenster von trinity-large-thinking?

trinity-large-thinking unterstützt ein Kontextfenster von 262.1K Tokens, aufgeteilt zwischen deinem Prompt und der Modellantwort.

§ 04

Ähnliche Modelle

trinity-large-thinking jetzt ausprobieren

Erstelle einen API-Schlüssel und starte in unter einer Minute.

Alle Modelle ansehen