Eingabetext (Eingabeaufforderung)
Tokenizer: cl100k_base (OpenAI)
Charaktere: 0
Bildkosten (multimodal)
Bild-Token:
0
Basierend auf der hochauflösenden GPT-4 Vision-Berechnung.
Token-Aufschlüsselung
Gesamteingabe
0
Text + Image
Schätzung: Ausgabe
1,000
Response Length
tokens
Geschätzte Kosten (Input + Output)
| Model | Input | Output | Total |
|---|
Bei den Kostenschätzungen handelt es sich um Näherungswerte, die auf öffentlichen API-Preisen basieren.
Häufig gestellte Fragen zum Token-Zähler
Das Verständnis der Token-Nutzung ist für die Kostenverwaltung bei der Arbeit mit Large Language Models (LLMs) wie ChatGPT und Claude von entscheidender Bedeutung.
Merkmale
- Nicht nur Wörter: 1000 Token entsprechen ungefähr 750 Wörtern.
- Tokenizer: Wir verwenden die Standardkodierung „cl100k_base“, die von GPT-4 und den meisten modernen LLMs (einschließlich Claude- und Llama-Näherung) verwendet wird.