Model
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
Uruchamianie LLM lokalnie za pomocą WebGPU
Uruchamiaj potężne modele AI, takie jak Llama 3 i Gemma, bezpośrednio w przeglądarce za pomocą WebGPU.
Wymagania systemowe
Wymaga urządzenia obsługującego procesor graficzny i nowoczesnej przeglądarki (Chrome/Edge 113+).
Lokalne często zadawane pytania dotyczące LLM
Czy moje dane są prywatne?
Tak, model działa całkowicie na Twoim urządzeniu. Żadne dane nie są wysyłane do żadnego serwera.
Dlaczego jest powolny?
Wydajność zależy od procesora graficznego. Początkowe czasy ładowania mogą być długie, ponieważ wagi modeli są buforowane.