Model:
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
تشغيل LLMs محليًا باستخدام WebGPU
This tool uses WebAssembly and WebGPU to run AI models directly on your graphics card relative to your browser. No data leaves your device.
System Requirements
You need a modern browser (Chrome/Edge 113+) and a GPU with at least 4GB VRAM for decent performance.
الأسئلة الشائعة
هل هذا خاص حقًا؟
نعم. يتم تنزيل أوزان النموذج إلى ذاكرة التخزين المؤقت للمتصفح، وتتم جميع العمليات الحسابية على أجهزتك المحلية.
لماذا التحميل الأول بطيء؟
يحتاج المتصفح إلى تنزيل أوزان النموذج (حوالي 1GB-4GB). ستكون الزيارات اللاحقة فورية.