Modèle
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
Exécuter des LLM localement avec WebGPU
Exécutez de puissants modèles d'IA comme Llama 3 et Gemma directement dans votre navigateur à l'aide de WebGPU.
Configuration système requise
Nécessite un appareil compatible GPU et un navigateur moderne (Chrome/Edge 113+).
FAQ LLM locale
Mes données sont-elles privées ?
Oui, le modèle fonctionne entièrement sur votre appareil. Aucune donnée n'est envoyée à un serveur.
Pourquoi est-ce lent ?
Les performances dépendent de votre GPU. Les temps de chargement initiaux peuvent être longs car les poids du modèle sont mis en cache.