Client-Side Only • Secure

लोकल LLM रनर

WebGPU का उपयोग करके अपने ब्राउज़र में निजी तौर पर AI मॉडल चलाएं।

100% Private (No Server Uploads)
मॉडल
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

WebGPU के साथ स्थानीय रूप से LLM चलाना

यह टूल आपके ग्राफिक्स कार्ड पर सीधे AI मॉडल चलाने के लिए WebAssembly और WebGPU का उपयोग करता है। कोई डेटा आपके डिवाइस से बाहर नहीं जाता है।

सिस्टम आवश्यकताएं

आपको एक आधुनिक ब्राउज़र (Chrome/Edge 113+) और अच्छे प्रदर्शन के लिए कम से कम 4GB VRAM वाले GPU की आवश्यकता है।

सामान्य प्रश्न

क्या यह वास्तव में निजी है?

हाँ। मॉडल वेट आपके ब्राउज़र कैश में डाउनलोड किए जाते हैं, और सभी गणना आपके स्थानीय हार्डवेयर पर होती है।

पहली बार लोड होने में धीमा क्यों है?

ब्राउज़र को मॉडल वेट (लगभग 1GB-4GB) डाउनलोड करने की आवश्यकता होती है। बाद की यात्राएं त्वरित होंगी।