ローカルLLMランナー

WebGPUを使用してブラウザ内でAIモデルをプライベートに実行します。

100% Private (No Server Uploads)
モデル
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

ローカル LLM ランナー

Llama 3やGemmaなどの強力なAIモデルを、WebGPUを使用してブラウザで直接実行します。

システム要件

GPU対応デバイスと最新のブラウザ(Chrome/Edge 113以降)が必要です。

ローカルLLM FAQ

データはプライベートですか?

はい、モデルは完全にデバイス上で実行されます。サーバーにデータは送信されません。

なぜ遅いのですか?

パフォーマンスはGPUに依存します。モデルの重みがキャッシュされるため、初回ロードには時間がかかる場合があります。