Jetzt verfügbar
MiniMax

minimax-m2.5

MiniMax-M2.5 is a SOTA large language model designed for real-world productivity. Trained in a diverse range of complex real-world digital working environments, M2.5 builds upon the coding expertise of M2.1...

TextReasoningToolsOpen Weights204.8K
InputGratis
OutputGratis
Kontext204.8K
Endpunkteopenai

Funktionen

ReasoningToolsParallele ToolsStrukturiert

Modalitäten

Eingabe
text
Ausgabe
text

Kurzstatistik

Kontextfenster204.8K
Max. Ausgabe196.6K
Moduschat
TokenizerOther
Quantisierungfp8

Leistung

Lade Leistungsdaten...

Unterstützte Parameter

ParameterImmerStandard
frequency_penalty(nicht senden)
include_reasoning
logit_bias
logprobs
max_tokens
min_p
parallel_tool_calls
presence_penalty(nicht senden)
reasoning
reasoning_effort
repetition_penalty(nicht senden)
response_format
seed
stop
structured_outputs
temperature1
tool_choice
tools
top_k(nicht senden)
top_logprobs
top_p0.95
§ 01

Preise

Input-Preis$0.00 · 1M Tokens
Output-Preis$0.00 · 1M Tokens
Kontextfenster204.8K Tokens
Kompatible Endpunkteopenai
AnbieterMiniMax
§ 02

minimax-m2.5 aus deinem Code aufrufen

Richte jedes OpenAI-kompatible SDK auf UnoRouter aus und frage das Modell per Namen an. Ersetze YOUR_API_KEY durch einen echten Schlüssel aus deinem Dashboard.

bash
curl https://api.unorouter.ai/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "minimax-m2.5",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Melde dich an, um deinen API-Key automatisch einzutragen

§ 03

Häufige Fragen

Was kostet minimax-m2.5 pro 1M Tokens?

Input kostet $0.00 pro 1M Tokens, Output $0.00 pro 1M Tokens. Abrechnung erfolgt pro Token, ohne Aufrundung auf Batch-Größen.

Wie greife ich per API auf minimax-m2.5 zu?

Sende Anfragen an den UnoRouter-Endpunkt /v1/chat/completions mit model=minimax-m2.5. Jede OpenAI-kompatible Client-Bibliothek funktioniert. Die Authentifizierung erfolgt über einen Standard-Bearer-Token.

Wie groß ist das Kontextfenster von minimax-m2.5?

minimax-m2.5 unterstützt ein Kontextfenster von 204.8K Tokens, aufgeteilt zwischen deinem Prompt und der Modellantwort.

§ 04

Ähnliche Modelle

minimax-m2.5 jetzt ausprobieren

Erstelle einen API-Schlüssel und starte in unter einer Minute.

Alle Modelle ansehen