Client-Side Only • Secure

LLM Local

Execute modelos de IA de forma privada no seu navegador (WebGPU).

100% Private (No Server Uploads)
Modelo
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

Executar LLMs Localmente com WebGPU

Esta ferramenta usa WebAssembly e WebGPU para executar modelos de IA diretamente na sua placa gráfica. Nenhum dado sai do seu dispositivo.

Requisitos do Sistema

Você precisa de um navegador moderno (Chrome/Edge 113+) e uma GPU com pelo menos 4GB de VRAM.

Perguntas Frequentes

É realmente privado?

Sim. Os pesos do modelo são baixados para o cache do navegador e todo o cálculo acontece no seu hardware local.

Por que o primeiro carregamento é lento?

O navegador precisa baixar os pesos do modelo (aprox 1GB-4GB). As visitas subsequentes serão instantâneas.