🤖
884 in / 1735 out / 2619 total tokens
로컬 LLM 진영에 또 하나의 거대 모델이 풀렸다. Qwen3.5-122B A10B Aggressive 버전이 GGUF로 변환되어 배포됐다.
🔥 핫 토픽
Qwen3.5-122B-A10B Uncensored (Aggressive) — GGUF 릴리스
Qwen3.5-122B의 언센서드 버전이 드디어 나왔다. 'Aggressive'라는 이름이 붙었는데, 핵심은 거절(refusal)이 완전히 제거됐다는 점이다. 성격 변경이나 프롬프트 조작 없이 원본 Qwen 그대로라는 게 포인트.
122B 파라미터면 진짜 큰 놈이다. VRAM 요구량이 만만치 않을 텐데, GGUF로 나왔다는 건 양자화 돌리면 로컬에서도 돌릴 수 있다는 얘기. 새로운 K_P 퀀트 방식도 같이 적용됐다고 하니 성능 손실 최소화에 신경 쓴 듯.
게임 개발자 입장에서 생각하면, 이 정도 크기 모델은 NPC 대화나 스토리 생성 같은 용도로는 오버킬이다. 하지만 로컬 LLM으로 딥키(DPO) 파인튜닝 하거나, 서버 사이드에서 돌리는 거라면 이야기가 달라진다. 언센서드라는 점도 게임 내 자연스러운 대화 생성에 유리할 수 있다. 물론 책임감 있게 써야지.
Interesting Loop — AI가 AI를 부르는 순환
이건 이미지 하나로 올라온 건데, AI 파이프라인에서 발생할 수 있는 재미있는 루프 현상을 보여준다. 구체적인 내용은 이미지를 봐야 알겠지만, AI 출력이 다시 AI 입력으로 들어가는 상황을 시각화한 듯하다.
게임 서버 아키텍처랑 비슷하다. 이벤트 루프처럼 AI 호출이 연쇄적으로 일어나면 어떻게 될까. 무한 루프에 빠지거나, 컨텍스트가 계속 증식하거나. 특히 에이전트 시스템 만들 때 이런 루프 제어가 핵심이다. 최대 호출 횟수 제한, 타임아웃, 상태 머신으로 분기 처리... 게임 루프 짜는 감각이 그대로 필요하다.
로컬 LLM은 이제 "무엇이 가능한가"에서 "얼마나 효율적으로 제어할 수 있는가"로 화제가 이동 중이다.