Модель
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
Запуск LLM локально с помощью WebGPU
Запускайте мощные модели искусственного интеллекта, такие как Llama 3 и Gemma, прямо в браузере с помощью WebGPU.
Системные требования
Требуется устройство с поддержкой графического процессора и современный браузер (Chrome/Edge 113+).
Часто задаваемые вопросы по местному LLM
Мои данные конфиденциальны?
Да, модель полностью работает на вашем устройстве. Никакие данные не отправляются ни на один сервер.
Почему это медленно?
Производительность зависит от вашего графического процессора. Время начальной загрузки может быть продолжительным, поскольку веса модели кэшируются.