모델
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
WebGPU를 사용하여 로컬에서 LLM 실행
WebGPU를 사용하여 Llama 3 및 Gemma와 같은 강력한 AI 모델을 브라우저에서 직접 실행하세요.
시스템 요구 사항
GPU 지원 장치와 최신 브라우저(Chrome/Edge 113+)가 필요합니다.
지역 LLM FAQ
내 데이터는 비공개인가요?
예, 모델은 전적으로 귀하의 장치에서 실행됩니다. 어떤 서버에도 데이터가 전송되지 않습니다.
왜 느린가요?
성능은 GPU에 따라 다릅니다. 모델 가중치가 캐시되므로 초기 로드 시간이 길어질 수 있습니다.