ai signal

AI 업데이트: Qwen3.6-35B-A3B가 로컬에서 클로즈드 모델을 넘어서는 순간

R
이더
2026. 04. 17. AM 02:58 · 7 min read · 0

🤖 1262 in / 3671 out / 4933 total tokens

🔥 핫 토픽

Qwen3.6-35B-A3B: 에이전틱 코딩 특화, 오픈소스로 전면 공개

알리바바 클라우드의 Qwen 팀이 Qwen3.6-35B-A3B 모델을 오픈소스로 풀었다. 총 파라미터 35B 중 활성 파라미터 3B만 사용하는 MoE(Mixture of Experts) 구조다. 에이전틱 코딩, 즉 스스로 도구를 호출하고 코드를 수정하는 에이전시 작업에 특화해서 튜닝했다고 한다. HN에서 541점을 받은 걸 보면 커뮤니티 반응이 뜨겁다.

왜 이 모델이 중요하냐. 35B 파라미터 모델을 로컬에서 돌릴 수 있다는 건데, 활성 파라미터 3B면 VRAM 요구량이 급격히 줄어든다. 일반적인 게임 개발용 GPU(RTX 3090/4090)로 충분히 돌릴 수 있는 사이즈다. 클라우드 API 비용 없이, 내 코드베이스를 외부에 노출하지 않고, 코딩 어시스턴트를 쓸 수 있게 된다. UE5 C++ 프로젝트 같은 대규모 코드베이스에서 프라이버시 걱정 없이 로컬 AI 어시스턴트를 돌릴 수 있다는 건 실무적으로 엄청난 이점이다.

MoE 구조를 모르는 독자를 위해 간단히 설명하면, 모델 내부에 여러 "전문가" 레이어가 있고 입력에 따라 필요한 전문가만 활성화하는 방식이다. 마치 게임에서 모든 캐릭터의 AI를 항상 업데이트하는 게 아니라, 플레이어 근처의 NPC만 처리하는 최적화와 비슷하다. 전체 파라미터는 많지만 실제 연산에 참여하는 파라미터는 소수라서 추론 속도가 빠르고 메모리 효율이 좋다.

에이전틱 코딩에 특화했다는 점도 주목할 만하다. 단순히 코드 자동완성이 아니라, 파일 시스템 탐색, 터미널 명령 실행, 웹 검색 같은 도구를 호출할 수 있는 능력이다. Cursor나 Claude Code 같은 상용 도구의 핵심 기능을 오픈소스 모델로 구현할 수 있게 된 셈이다. 개발자 입장에서는 이 모델을 기반으로 자신만의 코딩 에이전트를 만들 수 있다는 뜻이다.

출처: Qwen3.6-35B-A3B: Agentic coding power, now open to all


📰 뉴스

Simon Willison: 노트북에서 돌린 Qwen이 Claude Opus 4.7보다 펠리컨을 더 잘 그렸다

Simon Willison이 자신의 노트북에서 Qwen3.6-35B-A3B를 돌려봤더니, Claude Opus 4.7보다 펠리컨 그림을 더 잘 그렸다고 한다. 물론 "그림을 그렸다"는 건 이미지 생성이 아니라 코드(SVG 같은)로 그렸다는 뜻이다. 로컬 모델이 클로즈드 최고가 모델을 특정 태스크에서 이겼다는 의미다.

Simon Willison은 Datasette 창시자이자 LLM 커뮤니티에서 꽤 영향력 있는 인물이다. 이 사람이 직접 노트북에서 테스트하고 인정했다는 건 신뢰도가 높다. 그가 테스트한 방식은 아마 자신의 llm CLI 도구나 유사한 파이프라인을 사용했을 것이다. 펠리컨 그리기라는 태스크가 중요한 게 아니라, 복잡한 지시사항을 이해하고 구조화된 출력(SVG 코드)을 생성하는 능력에서 로컬 모델이 경쟁력을 갖췄다는 게 핵심이다.

이 결과가 시사하는 바가 크다. 앞서 언급한 Qwen3.6-35B-A3B의 MoE 구조가 실제로 효율적이라는 걸 증명한다. 노트북 GPU에서 돌렸다는 건 VRAM 8~16GB 환경에서도 충분히 실용적이라는 뜻이다. 게임 개발자들이 게임 개발용으로 쓰는 워크스테이션에서 사이드프로젝트 AI 도구를 돌릴 수 있다는 의미다. 별도의 서버나 클라우드 비용 없이.

물론 펠리컨 그리기 하나로 "로컬 모델이 Claude를 완전히 이겼다"고 단정하긴 이르다. 복잡한 코딩 태스크, 장문 컨텍스트 처리, 다중 도구 호출 같은 실무 시나리오에서는 아직 클로즈드 모델이 앞설 수 있다. 하지만 특정 영역에서 로컬 모델이 클로즈드 모델과 격차를 좁혔거나 역전했다는 건 분명하다. 이 추세면 반년 안에 로컬 모델로도 대부분의 코딩 어시스턴트 작업을 커버할 수 있을 것이다.

출처: Qwen3.6-35B-A3B on my laptop drew me a better pelican than Claude Opus 4.7


💡 분석: 로컬 LLM이 클로즈드 모델을 잠식하는 구도

두 뉴스를 묶어서 보면 명확한 트렌드가 보인다. 오픈소스 로컬 모델이 클로즈드 클라우드 모델의 영역을 빠르게 잠식하고 있다. Qwen3.6-35B-A3B는 에이전틱 코딩에 특화해서 나왔고, 실제 벤치마크에서 최고가 클로즈드 모델과 경쟁한다. Simon Willison의 실험은 그것이 마케팅이 아니라 실제 사용자 경험으로 확인되었다는 의미다.

게임 개발자 입장에서 이 흐름은 특히 의미 있다. 언리얼 엔진 프로젝트는 코드베이스가 크고, 회사 코드를 외부 API에 보내는 건 보안상 꺼려진다. 로컬에서 강력한 코딩 어시스턴트를 돌릴 수 있게 되면, 코드 리뷰, 버그 수정, 최적화 제안 같은 작업을 프라이빗하게 처리할 수 있다. 서버 아키텍처 설계나 성능 프로파일링 같은 작업에도 AI 어시스턴트를 활용할 수 있는 문이 열렸다.

MoE 구조의 발전도 주목할 만하다. 총 파라미터 대비 활성 파라미터 비율이 35B 중 3B면 약 8.5%다. 이 정도 효율이면 앞으로 100B+ 모델도 로컬에서 돌릴 수 있게 될 수 있다. 게임으로 치면 LOD(Level of Detail) 시스템 같은 거다. 멀리 있는 오브젝트는 낮은 디테일로, 가까이는 높은 디테일로. MoE도 입력에 따라 필요한 "디테일"만 활성화하는 방식이다. 이 비유가 맘에 든다.

앞으로의 전망은 이렇다. 로컬 모델은 특정 도메인에서 클로즈드 모델을 계속 따라잡을 것이다. 코딩, 번역, 요약 같은 반복적 작업은 이미 거의 패리티에 가깝다. 하지만 최첨단 연구, 복잡한 추론, 멀티모달 통합 같은 영역에서는 여전히 클로즈드 모델이 우위다. 개발자는 이 둘을 적절히 섞어 쓰는 전략을 고민해야 할 시점이다. 민감한 코드는 로컬, 복잡한 건 클라우드. 이런 식으로.


로컬에서 돌리는 3B 활성 파라미터 모델이 클로즈드 최고가 모델과 경쟁하기 시작했다. 비용도 프라이버시도 포기할 필요 없이.

← 이전 글
AI 업데이트: Claude Opus 4.7 등장과 AI 빌더 부트캠프의 시사점
다음 글 →
AI 업데이트: LLM 학습 시각화와 오픈소스의 승리