Corridore LLM locale

Esegui modelli AI in privato nel tuo browser utilizzando WebGPU.

100% Private (No Server Uploads)
Modello
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

Esecuzione di LLM localmente con WebGPU

Esegui potenti modelli IA come Llama 3 e Gemma direttamente nel tuo browser utilizzando WebGPU.

Requisiti di sistema

Richiede un dispositivo abilitato per GPU e un browser moderno (Chrome/Edge 113+).

Domande frequenti sul LLM locale

I miei dati sono privati?

Sì, il modello funziona interamente sul tuo dispositivo. Nessun dato viene inviato a nessun server.

Perché è lento?

Le prestazioni dipendono dalla tua GPU. I tempi di caricamento iniziale potrebbero essere lunghi poiché i pesi del modello vengono memorizzati nella cache.