ตัวนับโทเค็น LLM

นับโทเค็นและประมาณการต้นทุนสำหรับ GPT-4, Claude และ Gemini

ป้อนข้อความ (พร้อมท์)

Tokenizer: cl100k_base (OpenAI)
ตัวอักษร: 0

ต้นทุนรูปภาพ (ต่อเนื่องหลายรูปแบบ)

โทเค็นรูปภาพ:
0

อิงตามการคำนวณความละเอียดสูงของ GPT-4 Vision

การแยกย่อยโทเค็น

อินพุตทั้งหมด
0
Text + Image
ประมาณ เอาท์พุต
1,000
Response Length
tokens

ต้นทุนโดยประมาณ (อินพุต + เอาต์พุต)

Model Input Output Total

การประมาณการต้นทุนเป็นการประมาณตามราคา API สาธารณะ

คำถามที่พบบ่อยเกี่ยวกับตัวนับโทเค็น

การทำความเข้าใจการใช้โทเค็นเป็นสิ่งสำคัญสำหรับการจัดการต้นทุนเมื่อทำงานกับ Large Language Models (LLM) เช่น ChatGPT และ Claude

คุณสมบัติ