Modello
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
Esecuzione di LLM localmente con WebGPU
Esegui potenti modelli IA come Llama 3 e Gemma direttamente nel tuo browser utilizzando WebGPU.
Requisiti di sistema
Richiede un dispositivo abilitato per GPU e un browser moderno (Chrome/Edge 113+).
Domande frequenti sul LLM locale
I miei dati sono privati?
Sì, il modello funziona interamente sul tuo dispositivo. Nessun dato viene inviato a nessun server.
Perché è lento?
Le prestazioni dipendono dalla tua GPU. I tempi di caricamento iniziale potrebbero essere lunghi poiché i pesi del modello vengono memorizzati nella cache.