模型
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
使用 WebGPU 在本地运行 LLM
使用 WebGPU 直接在浏览器中运行 Llama 3 和 Gemma 等强大的 AI 模型。
系统要求
您需要一个现代浏览器(Chrome/Edge 113+)和一个至少有 4GB 显存的 GPU 才能获得良好的性能。
常见问题
这真的隐私吗?
是的。模型权重下载到您的浏览器缓存中,所有计算都在您的本地硬件上进行。
为什么第一次加载很慢?
浏览器需要下载模型权重(大约 1GB-4GB)。随后的访问将是即时的。