Client-Side Only • Secure

本地 LLM 运行器

在浏览器中私密运行 AI 模型(WebGPU)。

100% Private (No Server Uploads)
模型
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

使用 WebGPU 在本地运行 LLM

使用 WebGPU 直接在浏览器中运行 Llama 3 和 Gemma 等强大的 AI 模型。

系统要求

您需要一个现代浏览器(Chrome/Edge 113+)和一个至少有 4GB 显存的 GPU 才能获得良好的性能。

常见问题

这真的隐私吗?

是的。模型权重下载到您的浏览器缓存中,所有计算都在您的本地硬件上进行。

为什么第一次加载很慢?

浏览器需要下载模型权重(大约 1GB-4GB)。随后的访问将是即时的。