Modelo
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
Executar LLMs Localmente com WebGPU
Esta ferramenta usa WebAssembly e WebGPU para executar modelos de IA diretamente na sua placa gráfica. Nenhum dado sai do seu dispositivo.
Requisitos do Sistema
Você precisa de um navegador moderno (Chrome/Edge 113+) e uma GPU com pelo menos 4GB de VRAM.
Perguntas Frequentes
É realmente privado?
Sim. Os pesos do modelo são baixados para o cache do navegador e todo o cálculo acontece no seu hardware local.
Por que o primeiro carregamento é lento?
O navegador precisa baixar os pesos do modelo (aprox 1GB-4GB). As visitas subsequentes serão instantâneas.