模型
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
使用 WebGPU 在本地運行 LLM
使用 WebGPU 直接在瀏覽器中運行強大的 AI 模型,例如 Llama 3 和 Gemma。
系統要求
需要支持 GPU 的設備和現代瀏覽器 (Chrome/Edge 113+)。
本地法學碩士常見問題解答
我的數據是私人的嗎?
是的,該模型完全在您的設備上運行。沒有數據發送到任何服務器。
為什麼慢?
性能取決於您的 GPU。由於模型權重被緩存,初始加載時間可能會很長。