이 글은 AI 검수에서 통과하지 못했습니다 (점수: 75/100)
⚠️ 비어있는 섹션이 있다 🚫 죽은 링크: https://www.reuters.com/business/autos-transportation/chinas-open-source-dominance-threatens-us-ai-lead-us-advisory-body-warns-2026-03-23/ (401)
링크 오류, 품질 미달 등의 사유로 자동 분류된 글입니다.
🤖
1782 in / 5462 out / 7244 total tokens
오늘은 좀 무거운 이야기부터 시작한다. AI 개발 생태계의 보안이 뚫리고 있다.
🔥 핫 토픽
LiteLLM, 공급망 공격 당함
LiteLLM Python package compromised by supply-chain attack
LiteLLM 1.82.8 버전에 악성코드가 심겨졌다. litellm_init.pth 파일이 credential stealer(자격증명 탈취기)였던 것. LiteLLM은 LLM API 호출을 통합해주는 라이브러리로, 우리 같은 AI 사이드프로젝트 빌더들이 엄청 많이 쓴다. 의존성 하나가 무너지면 전체가 무너지는 거, 게임 서버 아키텍처랑 똑같다.
출처: GitHub Issues
LM Studio도 악성코드 의심
LM Studio may possibly be infected with sophisticated malware
로컬 LLM 실행 도구로 유명한 LM Studio에서도 의심스러운 신호가 포착됐다. 사용자가 바이러스 스캔을 돌렸더니 3번이나 걸렸다고. 아직 확정은 아니지만, 요즘 분위기 보면 씁쓸하다. 로컬에서 모델 돌리는 걸로 "안전하다"고 믿었던 시대가 간 건가.
Simon Willison: 패키지 매니저가 식어야 한다
Package Managers Need to Cool Down
Simon Willison이 패키지 매니저 생태계의 문제를 지적했다. 핵심은 의존성 폭발. npm, pip, cargo 할 것 없이 모든 생태계가 같은 문제를 안고 있다. 게임 개발에서도 언리얼 플러그인 의존성 지옥을 겪어봤는데, AI 쪽은 더 심하다. 모델 하나 돌리려면 깔리는 게 수십 개니까.
출처: Simon Willison
이 공급망 공격들이 왜 무서운가 하면, AI 개발자들이 API 키를 환경변수로 많이 돌리는데 이걸 훔치면 OpenAI, Anthropic 크레딧을 몽땅 털 수 있다. 내 AWS 키가 털려서 비용 폭탄 맞는 거랑 같은 수준.
📰 뉴스
중국 오픈소스 AI, 미국 리드 위협한다고
China's open-source dominance threatens US AI lead
미국 자문기구에서 경고했다. 중국이 오픈소스 AI로 글로벌 영향력을 확대하고 있다는 거. DeepSeek, Qwen 같은 모델들이 성능 좋고 무료니까. 근데 이게 "위협"인지 "경쟁"인지는 관점 나름 아닌가. 개발자 입장에선 좋은 도구 많을수록 반가운 일이다.
출처: Reuters
Wine 11, 커널 레벨 재작성으로 대폭提速
Wine 11 rewrites how Linux runs Windows games
AI 뉴스는 아니지만 게임 개발자로서 스킵할 수 없다. Wine 11이 커널 레벨에서 Windows 게임 실행 방식을 재작성했다. 성능 향상이 상당하다는데, 이게 의미하는 건 Steam Deck이나 리눅스 게이밍 환경이 또 좋아진다는 것. UE5 개발할 때 타겟 플랫폼 하나 더 신경 써야 하는 시대가 오나.
출처: XDA Developers
🛠️ 개발 도구
Claude Code Cheat Sheet
Claude Code 쓰는 사람들을 위한 치트시트. 터미널에서 Claude 쓸 때 유용한 커맨드와 패턴들이 정리돼 있다. 나도 요즘 코딩할 때 Claude Code 많이 쓰는데, 몰랐던 기능들이 꽤 있더라. 특히 컨텍스트 관리 쪽은 한번 읽어볼 만하다.
출처: StoryFox
⭐ 오픈소스
graphbot: LLM 10배 똑똑하게?
graphbot — Make any LLM 10x smarter
재귀적 DAG 분해 + 시간적 지식 그래프로 싼 모델이 비싼 모델 성능을 따라잡는다는 프로젝트. 30개 태스크 통과에 총 $0.0006. "10배 똑똑"은 마케팅이겠지만, 접근법은 흥미롭다. RAG 구조를 DAG로 재구성한 건데, 게임 AI의 행동 트리랑 비슷한 느낌. 구조화된 추론이 얼마나 효과적인지 실험해볼 만하다.
출처: GitHub
AI-DEV-OS: 자율 에이전트 오케스트레이션
6가지 AI/ML 기술을 하나의 워크플로우로 통합한 자율 에이전트 플랫폼. 프로덕션 급이라고 하는데, 에이전트끼리 협업하는 구조가 인상적. UE5의 GameFeature 플러그인처럼 모듈화된 에이전트 시스템을 구축한 듯. 아키텍처만 봐도 배울 게 있다.
출처: GitHub
ContextLens: RAG 디버깅 플랫폼
ContextLens — RAG evaluation & debugging platform
RAG 시스템의 실패 패턴을 분류하고, 설정을 비교하고, LLM/휴리스틱 스코어링을 제공하는 도구. RAG 만들어본 사람은 알겠지만, "왜 이 답변이 이상하지?" 디버깅이 진짜 어렵다. 이게 트레이스 캡처랑 실패 분류를 해주니 유용할 듯.
출처: GitHub
📄 논문
Scalable Prompt Routing
Scalable Prompt Routing via Fine-Grained Latent Task Discovery
프롬프트 라우팅: 여러 LLM 후보 중에서 각 쿼리에 가장 적합한 모델을 골라 성능과 비용을 최적화하는 기법. 모델 풀이 커질수록 라우팅이 중요해지는데, 잠재 태스크 발견으로 세밀하게 라우팅하는 방법을 제안했다. 게임 서버 로드밸런싱이랑 비슷하다. 적절한 모델에 적절한 요청을.
🔊 기타
RYS II: Qwen3.5 27B로 반복 레이어 실험
RYS II - Repeated layers with Qwen3.5 27B
H100으로 모델 레이어 반복 실험을 돌린 결과. "Universal Language" 같은 힌트도 있다는데, 본문이 길어서 읽어보려면 시간이 좀 필요하다. 모델 아키텍처 변형 실험은 항상 흥미로운 주제.
EVA: 음성 에이전트 평가 프레임워크
A New Framework for Evaluation of Voice Agents (EVA)
ServiceNow가 HuggingFace에 올린 음성 AI 에이전트 평가 프레임워크. 음성 에이전트는 텍스트보다 평가가 어려운데, 이걸 체계화했다. NPC 대화 시스템 만들 때 참고할 만하다.
출처: HuggingFace Blog
오늘 교훈: pip install 할 때 한 번 더 생각하자. requirements.txt 고정해놓고, 해시 검증도 습관화해야겠다. 게임 서버 배포할 때처럼.
공급망 신뢰가 무너지면, AI 개발 생태계 전체가 흔들린다. 이제 의존성도 "제로 트러스트"로.