Coureur LLM local

Exécutez des modèles d'IA en privé dans votre navigateur à l'aide de WebGPU.

100% Private (No Server Uploads)
Modèle
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

Exécuter des LLM localement avec WebGPU

Exécutez de puissants modèles d'IA comme Llama 3 et Gemma directement dans votre navigateur à l'aide de WebGPU.

Configuration système requise

Nécessite un appareil compatible GPU et un navigateur moderne (Chrome/Edge 113+).

FAQ LLM locale

Mes données sont-elles privées ?

Oui, le modèle fonctionne entièrement sur votre appareil. Aucune donnée n'est envoyée à un serveur.

Pourquoi est-ce lent ?

Les performances dépendent de votre GPU. Les temps de chargement initiaux peuvent être longs car les poids du modèle sont mis en cache.