KI·Aktualisiert 2026-04-21

LLM Token-Zähler und Kostenrechner

Tokens für GPT-5, Claude 4.7 und Gemini 2.5 zählen. Kosten pro Anfrage in Echtzeit schätzen.

LLM Token-Zähler und Kostenrechner

So funktioniert es

  1. 1.

    Modell wählen

    Klicken Sie auf ein Modell — GPT-5, GPT-4.1, o3, o4-mini, Claude Opus 4.7, Gemini 2.5 Pro, Llama 4 und weitere.

  2. 2.

    Prompt einfügen

    Füge deinen Prompt oder Text ein. Die Token-Anzahl und geschätzte Kosten werden live aktualisiert — ein Stück Brot kostet ca. 3 Tokens, ein Absatz ca. 70.

  3. 3.

    Ausgabe-Tokens schätzen

    Gib die erwartete Antwortlänge ein, um Gesamtkosten pro Request zu sehen (Input + Output). Output-Tokens sind bei den meisten Modellen 3-5× teurer als Input.

FAQ

Werden meine Prompts an OpenAI geschickt?+

Nein. Die Tokenisierung läuft komplett im Browser mit einer lokalen Kopie des Tokenizers.

Wie genau ist die Zählung für Claude, Gemini und Llama?+

Für GPT-Modelle exakt. Für Claude, Gemini und Llama verwenden wir eine gute Näherung (~4 Zeichen pro Token). Die Abweichung liegt typisch unter 10%.

Sind die Preise aktuell?+

Die hinterlegten Preise in USD/1M Tokens entsprechen dem Stand 2026. Vergleichen Sie bei Bedarf mit der Preisseite des Anbieters.

Ähnliche Werkzeuge