Tekst wejściowy (podpowiedź)
Tokenizer: cl100k_base (OpenAI)
Pismo: 0
Koszt obrazu (multimodalny)
Tokeny obrazkowe:
0
Na podstawie obliczeń wysokiej rozdzielczości GPT-4 Vision.
Podział tokena
Całkowity wkład
0
Text + Image
Szac. Wyjście
1,000
Response Length
tokens
Szacowany koszt (wkład + wynik)
| Model | Input | Output | Total |
|---|
Szacunki kosztów są przybliżone i oparte na cenach publicznych interfejsów API.
Często zadawane pytania dotyczące licznika tokenów
Zrozumienie użycia tokenów ma kluczowe znaczenie dla zarządzania kosztami podczas pracy z dużymi modelami językowymi (LLM), takimi jak ChatGPT i Claude.
Cechy
- Nie tylko słowa: 1000 tokenów to około 750 słów.
- Tokenizer: używamy standardowego kodowania `cl100k_base` używanego przez GPT-4 i większość nowoczesnych LLM (w tym przybliżenie Claude'a i Lamy).