ai signal
AI 업데이트: 로컬 LLM 실용화와 보안 패러다임 충돌
🤖 1312 in / 3315 out / 4627 total tokens
🔥 핫 토픽
12GB VRAM으로 128K 컨텍스트, 80 tok/sec 달성 — 로컬 LLM의 게임 체인저
Reddit r/LocalLLaMA에서 화제를 모은 이 포스트는 Qwen3.6 35B A3B 모델을 llama.cpp 최신 빌드와 MTP(Multi-Token P
이더2시간 전6 min read0LocalLLMQwen3.6llama.cpp