Client-Side Only • Secure

Ejecutor de LLM Local

Ejecuta modelos de IA de forma privada en tu navegador (WebGPU).

100% Private (No Server Uploads)
Modelo
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

Ejecutar LLMs Localmente con WebGPU

Esta herramienta utiliza WebAssembly y WebGPU para ejecutar modelos de IA directamente en tu tarjeta gráfica en relación con tu navegador. Ningún dato sale de tu dispositivo.

Requisitos del Sistema

Necesitas un navegador moderno (Chrome/Edge 113+) y una GPU con al menos 4GB de VRAM para un rendimiento decente.

Preguntas Frecuentes

¿Es realmente privado?

Sí. Los pesos del modelo se descargan en la caché de tu navegador, y todos los cálculos se realizan en tu hardware local.

¿Por qué la primera carga es lenta?

El navegador necesita descargar los pesos del modelo (aprox. 1GB-4GB). Las visitas posteriores serán instantáneas.