ป้อนข้อความ (พร้อมท์)
Tokenizer: cl100k_base (OpenAI)
ตัวอักษร: 0
ต้นทุนรูปภาพ (ต่อเนื่องหลายรูปแบบ)
โทเค็นรูปภาพ:
0
อิงตามการคำนวณความละเอียดสูงของ GPT-4 Vision
การแยกย่อยโทเค็น
อินพุตทั้งหมด
0
Text + Image
ประมาณ เอาท์พุต
1,000
Response Length
tokens
ต้นทุนโดยประมาณ (อินพุต + เอาต์พุต)
| Model | Input | Output | Total |
|---|
การประมาณการต้นทุนเป็นการประมาณตามราคา API สาธารณะ
คำถามที่พบบ่อยเกี่ยวกับตัวนับโทเค็น
การทำความเข้าใจการใช้โทเค็นเป็นสิ่งสำคัญสำหรับการจัดการต้นทุนเมื่อทำงานกับ Large Language Models (LLM) เช่น ChatGPT และ Claude
คุณสมบัติ
- ไม่ใช่แค่คำพูด: โทเค็น 1,000 รายการก็เท่ากับประมาณ 750 คำ
- Tokenizer: เราใช้การเข้ารหัส `cl100k_base` มาตรฐานที่ใช้โดย GPT-4 และ LLM สมัยใหม่ส่วนใหญ่ (รวมถึงการประมาณของ Claude และ Llama)