hallucination

AI 업데이트: LiteLLM 서플라이체인 공격, 중국 오픈소스 AI의 약진

R
이더
2026. 03. 25. AM 06:46 · 9 min read · 0

이 글은 AI 검수에서 통과하지 못했습니다 (점수: 70/100)

⚠️ 비어있는 섹션이 있다 ⚠️ 출처 표기가 없다 (signal 필수) 🚫 죽은 링크: https://www.reuters.com/business/autos-transportation/chinas-open-source-dominance-threatens-us-ai-lead-us-advisory-body-warns-2026-03-23/ (401)

링크 오류, 품질 미달 등의 사유로 자동 분류된 글입니다.


🤖 1969 in / 4707 out / 6676 total tokens

오늘 가장 중요한 소식은 LiteLLM 패키지가 당했다. AI 인프라의 핵심 라이브러리가 공격당하면 파급력이 크다.

🔥 핫 토픽: LiteLLM 서플라이체인 공격

LiteLLM Python 패키지 탈취, credential stealer 포함

Hacker News | Simon Willison

LiteLLM 1.82.7과 1.82.8 버전이 악성코드에 감염됐다. litellm_init.pth 파일에 credential stealer가 숨어있었다. PyPI에서 이미 다운로드된 패키지들이니, 최근 업데이트했다면 당장 확인해야 한다.

이게 왜 무서우냐. LiteLLM은 OpenAI, Anthropic, 로컬 모델까지 하나의 API로 추상화해주는 라이브러리다. 즉, 모든 LLM API 키가 이 녀석 손에 들어갈 수 있었다는 얘기. 게임 서버로 치면 로그인 토큰을 가로채는 악성코드가 공식 클라이언트에 들어간 셈이다.

영향 범위: 수천 명이 영향을 받았을 것으로 추정. FutureSearch 팀이 상세 분석을 올렸다.

pip install litellm==1.82.6으로 다운그레이드하거나, 1.82.9 이상이 나올 때까지 기다려라. 그리고 API 키는 로테이션 돌려라.

LM Studio도 악성코드 의심 보고

Reddit

로컬 LLM 실행툴인 LM Studio에서도 의심스러운 신호가 잡혔다. 사용자가 풀 스캔 돌렸더니 3번이나 탐지됐다고. False positive일 수도 있지만, 타이밍이 묘하다.

로컬 모델 돌리는 툴이 감염되면? 시스템 전체가 당하는 거다. VM이나 샌드박스 없이 막 돌리던 습관, 이참에 고쳐야겠다.


📰 뉴스

중국 오픈소스 AI, 미국 리드 위협 - 미 자문기구 경고

Reuters

미국 의회 자문기구가 정식으로 경고했다. 중국이 오픈소스 AI 생태계에서 압도적이라는 거다. Qwen, DeepSeek, Yi, GLM... 생각해보면 최근 로컬에서 돌리는 모델들 중국산 투성이다.

왜 이게 중요하냐: 오픈소스는 생태계를 먹는다. 누가 다운로드 수가 많은가보면 답이 나온다. 중국이 이 흐름을 이어가면 AI 표준 자체를 중국이 주도하게 될 수도. 게임 엔진 시장에서 언리얼이 장악한 것처럼.

중국 LLM 현황 정리

Reddit

Reddit 유저가 정리한 중국 LLM 지도. 주요 플레이어들:

  • ByteDance: Doubao (dola-seed) - 현재 중국에서 가장 핫함
  • Alibaba: Qwen 시리즈 - 오픈소스 기여가 압도적
  • DeepSeek: 가성비 끝판왕
  • Baidu: ERNIE 시리즈
  • Tencent: Hunyuan

중국은 빅테크들이 다 자체 모델을 굴리고 있고, 오픈소스 릴리즈도 공격적이다. 미국은 OpenAI, Anthropic이 폐쇄적으로 가는데, 이 갭이 벌어지는 느낌.

Andrej Karpathy의 자율 AI 연구 에이전트, 2일간 700개 실험

Fortune

Karpathy의 Loop 프로젝트가 2일 동안 700개의 실험을 자동으로 돌렸다. 연구원 한 명이 평생 할 실험을 이틀 만에.

왜 중요하냐: AI가 AI를 연구하는 시대가 왔다. 게임 개발로 치면 자동 밸런싱 시스템이 스스로를 튜닝하는 수준. 물론 아직은 초기라 완벽하진 않지만, 방향성은 명확하다.


🛠️ 도구 & 오픈소스

Claude Code Cheat Sheet

바로가기

Claude Code 쓰는 사람들 필수 참고. 단축키, 프롬프트 패턴, 워크플로우 정리. 점수 615 받을 만큼 유용하다.

요즘 Claude Code로 코딩하는 게 익숙해지면 생산력이 완전히 달라진다. 물론 게임 코드처럼 복잡한 구조는 여전히 손봐야 하지만, 보일러플레이트나 리팩토링은 거의 다 맡길 수 있다.

GraphBot - LLM 10배 똑똑하게 만들기

GitHub

재귀적 DAG 분해 + 시간 지식 그래프로 싼 모델이 비싼 모델 성능을 내게 한다는 프로젝트. 30개 태스크 전부 통과했고, 총 비용은 0.0006달러.

아이디어가 재밌다. RAG를 넘어서 구조화된 지식 그래프를 실시간으로 구축하면서 추론에 활용하는 방식. 게임 NPC의 대화 시스템에 응용할 수 있겠다. NPC가 플레이어와의 모든 대화를 기억하고 연결하는 거.

SillyTavern 게임 NPC 확장

Reddit

SillyTavern을 백엔드로 써서 게임 NPC에 생명을 불어넣는 확장. 모드가 브릿지 역할만 하면 되니까 거의 모든 게임에 적용 가능하다.

Cydonia를 RP 모델로, Qwen 3.5를 백업으로 쓴다고. UE5 플러그인으로 비슷한 거 만들어봤는데, 생각보다 레이턴시 관리가 빡세더라. 로컬 모델 쓰면 그나마 낫지만.

EVA - 음성 에이전트 평가 프레임워크

HuggingFace Blog

음성 AI 에이전트 평가를 위한 새 프레임워크. 텍스트 LLM 평가는 꽤 정립됐는데, 음성은 아직 와일드 웨스트다. 이게 표준이 되면 음성 기반 게임 NPC 개발도 수월해질 것.


🧪 연구 & 실험

RYS II - Qwen3.5 27B로 반복 레이어 실험

Reddit

H100 여러 대를 굴려서 레이어 반복 실험을 했다. "Universal Language" 힌트도 있다는데, 자세한 건 원문을 봐야 한다.

레이어 반복은 모델 구조 자체를 건드는 실험인데, 추론 비용 대비 성능 향상을 노리는 것. 양자화와 비슷하게, 하드웨어 제약을 소프트웨어로 돌파하려는 시도다.


🎮 그리고 32MB VRAM 밈

Reddit

32MB VRAM으로 Claude Opus 이기는 모델 찾는다는 글. GeForce 256이랑 Pentium 3 쓴다고.

...웃자고 쓴 거다. 32GB겠지. 근데 진짜 32MB로 뭔가 돌아가게 만드는 미친 실험들도 있더라. 최적화의 끝판왕들.


서플라이체인 공격은 AI 시대에도 여전히 가장 효과적인 공격 벡터다. 의존성 하나가 무너지면 전체가 무너진다.

← 이전 글
AI 업데이트: LiteLLM 공급망 공격, 중국 LLM의 약진
다음 글 →
AI 업데이트: LiteLLM 공급망 공격, 중국 AI의 약진