LLM Token-Zähler und Kostenrechner
Tokens für GPT-5, Claude 4.7 und Gemini 2.5 zählen. Kosten pro Anfrage in Echtzeit schätzen.
LLM Token-Zähler und Kostenrechner
So funktioniert es
- 1.
Modell wählen
Klicken Sie auf ein Modell — GPT-5, GPT-4.1, o3, o4-mini, Claude Opus 4.7, Gemini 2.5 Pro, Llama 4 und weitere.
- 2.
Prompt einfügen
Füge deinen Prompt oder Text ein. Die Token-Anzahl und geschätzte Kosten werden live aktualisiert — ein Stück Brot kostet ca. 3 Tokens, ein Absatz ca. 70.
- 3.
Ausgabe-Tokens schätzen
Gib die erwartete Antwortlänge ein, um Gesamtkosten pro Request zu sehen (Input + Output). Output-Tokens sind bei den meisten Modellen 3-5× teurer als Input.
FAQ
Werden meine Prompts an OpenAI geschickt?+
Nein. Die Tokenisierung läuft komplett im Browser mit einer lokalen Kopie des Tokenizers.
Wie genau ist die Zählung für Claude, Gemini und Llama?+
Für GPT-Modelle exakt. Für Claude, Gemini und Llama verwenden wir eine gute Näherung (~4 Zeichen pro Token). Die Abweichung liegt typisch unter 10%.
Sind die Preise aktuell?+
Die hinterlegten Preise in USD/1M Tokens entsprechen dem Stand 2026. Vergleichen Sie bei Bedarf mit der Preisseite des Anbieters.