স্থানীয় এলএলএম রানার

WebGPU ব্যবহার করে আপনার ব্রাউজারে ব্যক্তিগতভাবে AI মডেলগুলি চালান।

100% Private (No Server Uploads)
মডেল
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

WebGPU এর সাথে স্থানীয়ভাবে LLM চালানো

WebGPU ব্যবহার করে সরাসরি আপনার ব্রাউজারে Llama 3 এবং Gemma-এর মতো শক্তিশালী AI মডেলগুলি চালান৷

সিস্টেমের প্রয়োজনীয়তা

একটি GPU-সক্ষম ডিভাইস এবং একটি আধুনিক ব্রাউজার প্রয়োজন (Chrome/Edge 113+)।

স্থানীয় LLM FAQ

আমার ডেটা কি ব্যক্তিগত?

হ্যাঁ, মডেলটি সম্পূর্ণরূপে আপনার ডিভাইসে চলে। কোনো সার্ভারে কোনো ডেটা পাঠানো হয় না।

কেন এটা ধীর?

কর্মক্ষমতা আপনার GPU উপর নির্ভর করে. প্রাথমিক লোডের সময় দীর্ঘ হতে পারে যতক্ষণ না মডেলের ওজন ক্যাশ করা হয়।