Местный специалист по LLM

Запускайте модели ИИ в частном порядке в браузере с помощью WebGPU.

100% Private (No Server Uploads)
Модель
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

Запуск LLM локально с помощью WebGPU

Запускайте мощные модели искусственного интеллекта, такие как Llama 3 и Gemma, прямо в браузере с помощью WebGPU.

Системные требования

Требуется устройство с поддержкой графического процессора и современный браузер (Chrome/Edge 113+).

Часто задаваемые вопросы по местному LLM

Мои данные конфиденциальны?

Да, модель полностью работает на вашем устройстве. Никакие данные не отправляются ни на один сервер.

Почему это медленно?

Производительность зависит от вашего графического процессора. Время начальной загрузки может быть продолжительным, поскольку веса модели кэшируются.