Місцевий LLM Runner

Запускайте моделі штучного інтелекту приватно у своєму браузері за допомогою WebGPU.

100% Private (No Server Uploads)
Модель
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

Запуск LLM локально за допомогою WebGPU

Запускайте такі потужні моделі ШІ, як Llama 3 і Gemma, безпосередньо у своєму браузері за допомогою WebGPU.

Системні вимоги

Потрібен пристрій із підтримкою GPU та сучасний браузер (Chrome/Edge 113+).

Місцеві LLM FAQ

Чи є мої дані конфіденційними?

Так, модель повністю працює на вашому пристрої. Жодні дані не надсилаються на жоден сервер.

Чому повільно?

Продуктивність залежить від вашого GPU. Час початкового завантаження може тривати довго, оскільки ваги моделі кешуються.