Modelo
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
Ejecutar LLMs Localmente con WebGPU
Esta herramienta utiliza WebAssembly y WebGPU para ejecutar modelos de IA directamente en tu tarjeta gráfica en relación con tu navegador. Ningún dato sale de tu dispositivo.
Requisitos del Sistema
Necesitas un navegador moderno (Chrome/Edge 113+) y una GPU con al menos 4GB de VRAM para un rendimiento decente.
Preguntas Frecuentes
¿Es realmente privado?
Sí. Los pesos del modelo se descargan en la caché de tu navegador, y todos los cálculos se realizan en tu hardware local.
¿Por qué la primera carga es lenta?
El navegador necesita descargar los pesos del modelo (aprox. 1GB-4GB). Las visitas posteriores serán instantáneas.