지역 LLM 러너

WebGPU를 사용하여 브라우저에서 비공개로 AI 모델을 실행하세요.

100% Private (No Server Uploads)
모델
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

WebGPU를 사용하여 로컬에서 LLM 실행

WebGPU를 사용하여 Llama 3 및 Gemma와 같은 강력한 AI 모델을 브라우저에서 직접 실행하세요.

시스템 요구 사항

GPU 지원 장치와 최신 브라우저(Chrome/Edge 113+)가 필요합니다.

지역 LLM FAQ

내 데이터는 비공개인가요?

예, 모델은 전적으로 귀하의 장치에서 실행됩니다. 어떤 서버에도 데이터가 전송되지 않습니다.

왜 느린가요?

성능은 GPU에 따라 다릅니다. 모델 가중치가 캐시되므로 초기 로드 시간이 길어질 수 있습니다.