مدل
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
اجرای LLM به صورت محلی با WebGPU
مدل های قدرتمند هوش مصنوعی مانند Llama 3 و Gemma را مستقیماً در مرورگر خود با استفاده از WebGPU اجرا کنید.
سیستم مورد نیاز
به یک دستگاه مجهز به GPU و یک مرورگر مدرن (Chrome/Edge 113+) نیاز دارد.
سوالات متداول LLM محلی
آیا داده های من خصوصی است؟
بله، مدل به طور کامل بر روی دستگاه شما اجرا می شود. هیچ داده ای به هیچ سروری ارسال نمی شود.
چرا کند است؟
عملکرد به GPU شما بستگی دارد. زمان بارگذاری اولیه ممکن است طولانی باشد تا وزن مدل در حافظه پنهان باشد.