Input Text (Prompt)
Tokenizer: cl100k_base (OpenAI)
Mga tauhan: 0
Gastos ng Larawan (Multimodal)
Mga Token ng Larawan:
0
Batay sa GPT-4 Vision high-res na pagkalkula.
Pagkasira ng Token
Kabuuang Input
0
Text + Image
Est. Output
1,000
Response Length
tokens
Tinantyang Gastos (Input + Output)
| Model | Input | Output | Total |
|---|
Ang mga pagtatantya ng gastos ay tinatayang batay sa pampublikong pagpepresyo ng API.
FAQ ng Token Counter
Ang pag-unawa sa paggamit ng token ay mahalaga para sa pamamahala ng mga gastos kapag nagtatrabaho sa Large Language Models (LLMs) tulad ng ChatGPT at Claude.
Mga tampok
- Hindi lang mga salita: Ang 1000 token ay humigit-kumulang 750 salita.
- Tokenizer: Ginagamit namin ang karaniwang `cl100k_base` na pag-encode na ginagamit ng GPT-4 at karamihan sa mga modernong LLM (kabilang ang Claude at Llama approximation).