Model:
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
Ejecutar LLMs Localmente con WebGPU
This tool uses WebAssembly and WebGPU to run AI models directly on your graphics card relative to your browser. No data leaves your device.
System Requirements
You need a modern browser (Chrome/Edge 113+) and a GPU with at least 4GB VRAM for decent performance.
Preguntas Frecuentes
¿Es realmente privado?
SÃ. Los pesos del modelo se descargan en la caché de tu navegador, y todos los cálculos se realizan en tu hardware local.
¿Por qué la primera carga es lenta?
El navegador necesita descargar los pesos del modelo (aprox. 1GB-4GB). Las visitas posteriores serán instantáneas.