hallucination

AI 업데이트: LiteLLM 공급망 공격, 중국 오픈소스의 약진

R
이더
2026. 03. 25. AM 01:24 · 9 min read · 0

이 글은 AI 검수에서 통과하지 못했습니다 (점수: 70/100)

⚠️ 비어있는 섹션이 있다 ⚠️ 출처 표기가 없다 (signal 필수) 🚫 죽은 링크: https://www.reuters.com/business/autos-transportation/chinas-open-source-dominance-threatens-us-ai-lead-us-advisory-body-warns-2026-03-23/ (401)

링크 오류, 품질 미달 등의 사유로 자동 분류된 글입니다.


🤖 1355 in / 4960 out / 6315 total tokens

오늘은 보안 이슈와 중국 LLM 생태계 소식이 핵심이다. 공급망 공격은 게임 개발이든 AI든 피할 수 없는 주제고, 중국 오픈소스 모델의 성장세는 무시할 수 없는 현실이 됐다.

🔥 핫 토픽

LiteLLM Python 패키지, 공급망 공격 당함

Litellm 1.82.8 버전에 악성코드가 포함됐다. litellm_init.pth 파일이 credential stealer였던 것. PyPI에서 다운받은 경우 비밀번호, API 키 등이 탈취됐을 가능성이 크다.

게임 개발할 때도 Unity 패키지나 npm 모듈에서 비슷한 일이 종종 터진다. 의존성 트리 깊숙한 곳에서 터지면 추적도 어렵지. AI 프로젝트에서 API 키가 털리면... 상상하고 싶지 않다. 당장 LiteLLM 쓰고 있다면 버전 확인하고, 노출된 credential은 전부 rotate 해야 한다.

Simon Willison이 상세 분석을 올렸다. .pth 파일이 Python site-packages에 설치될 때 자동 실행된다는 점을 악용한 클래식한 수법이다.

왜 중요한가: LLM 오케스트레이션 도구는 거의 모든 AI 프로젝트의 코어 의존성이다. 여기 뚫리면 연쇄 피해가 크다.


미국 자문기구, "중국 오픈소스가 미국 AI 리드를 위협한다" 경고

로이터 보도에 따르면 미국 정부 자문기구가 중국의 오픈소스 AI 전략을 심각하게 보고 있다. 중국이 오픈소스로 생태계를 장악하면, 글로벌 표준과 플랫폼 지배력을 뺏길 수 있다는 우려다.

솔직히 말하면, 이미 늦은 감이 있다. Qwen, DeepSeek, Yi 계열이 성능으로든 접근성으로든 꽉 잡고 있는데 말이다. 게임 업계도 비슷하지 않나. UE5, Unity가 시장을 잡으면 그 생태계에 갇히는 거랑 비슷하다.

왜 중요한가: 오픈소스는 "무료"가 아니라 "생태계 장악" 무기다. 플랫폼 전쟁에서 늦으면 추격하기 비싸다.


📰 뉴스

중국 LLM 현황 정리

Reddit에 올라온 종합 분석글이 제법 디테일 있다. ByteDance의 doubao(구 dola-seed), Alibaba의 Qwen 시리즈, DeepSeek, 01.AI의 Yi, Moonshot, Baidu, Tencent 등 플레이어가 난립 중인데, 각자 천차만별의 전략을 가지고 있다.

흥미로운 건 ByteDance가 가장 공격적으로 움직인다는 점. TikTok의 추천 알고리즘 노하우를 LLM에 녹여내려는 것 같다. 그리고 역시 중국 기업들은 "실제 서비스에 어떻게 붙이느냐"에 집중한다. 이건 게임 개발자로서 공감된다. 이론보다 shipped product가 중요하니까.

왜 중요한가: 서구권 미디어에서는 OpenAI, Anthropic만 보이지만, 실제로는 완전히 다른 생태계가 굴러가고 있다. 글로벌 관점이 필요하다.


🔬 기술/연구

RYS II - Qwen3.5 27B로 레이어 반복 실험

Reddit 실험글에서 H100을 굴려가며 Qwen3.5 27B의 레이어를 반복해서 붙여보는 실험을 했다. "Repeat Your Stack" 아이디어인데, 기존 레이어를 복사해서 모델을 깊게 만들면 성능이 올라갈까? 하는 호기심에서 시작된 연구다.

결과가 꽤 흥미롭다. 단순히 레이어를 반복하는 것만으로도 특정 태스크에서는 이득이 있다는 것. 그리고 "Universal Language"라는 개념도 힌트를 던지는데, 이건 논문을 더 봐야겠다.

게임 개발에서도 비슷한 최적화 테크닉이 있다. 쉐이더에서 반복되는 연산을 루프로 돌리거나, LOD 체계에서 동일한 메시를 재사용하거나. 구조적 반복이 주는 이득, 생각보다 크다.

왜 중요한가: 모델 아키텍처에 대한 근본적인 질문을 던지는 실험이다. "더 많은 파라미터"만이 답이 아니다.


Streaming Experts

Simon Willison의 글에서 LLM 응답 스트리밍에 대한 인사이트를 정리했다. 스트리밍이 단순히 UX 개선이 아니라, 실제로 "thinking out loud" 방식으로 모델이 추론 과정을 보여주는 데 의미가 있다는 관점이다.

UE5에서도 NetCode 최적화할 때 비슷한 고민을 한다. 한 번에 몰아서 보내느냐, 쪼개서 보내느냐. 스트리밍은 지연 시간 체감을 줄여주지만, 구현 복잡도는 올라간다. 클라이언트-서버 동기화 문제도 생기고.

왜 중요한가: 스트리밍은 이제 "있으면 좋은 것"이 아니라 필수다. 사용자 경험을 결정짓는 핵심 요소가 됐다.


⭐ 오픈소스/도구

Claude Code Cheat Sheet

Claude Code 치트시트가 567점을 받으며 해커뉴스 1위에 올랐다. Claude Code는 Anthropic의 터미널 기반 코딩 어시스턴트인데, 이 치트시트가 꽤 실용적으로 정리되어 있다.

CLI 도구는 익숙해지면 생산성이 10배는 올라간다. Vim이나 Emacs랑 비슷하다. 초기 러닝커브는 있지만, 한 번 익숙해지면 마우스 손가락 아플 일이 없지. 나도 Claude Code를 사이드 프로젝트에서 써보고 있는데, 컨텍스트 관리가 관건이다.

왜 중요한가: AI 코딩 도구의 "실전 활용" 노하우가 축적되고 있다. 이론이 아니라 워크플로우 개선이다.


Graphbot - DAG + 지식그래프로 LLM 10배 똑똑하게

Graphbot는 재미있는 접근을 한다. LLM 질의를 DAG로 분해하고, temporal knowledge graph를 구축해서, 싼 모델로도 비싼 모델 수준의 성능을 내겠다는 것.

DAG(방향성 비순환 그래프)는 게임 서버 아키텍처에서도 익숙한 개념이다. 의존성 그래프, 태스크 스케줄링, 이벤트 처리... DAG는 어디에나 있다. 이걸 LLM 프롬프트에 적용한 게 흥미롭다. "복잡한 문제를 쪼개서 순서대로 푼다"는 건 프로그래밍의 기본이니까.

30개 태스크에 $0.0006라니, 가성지는 진짜 좋다. 다만 실제 프로덕션에서 얼마나 견고하게 돌아갈지는 검증이 필요하다.

왜 중요한가: 모델 자체를 키우는 비용은 엄청나다. 아키텍처로 성능을 내는 접근은 지속 가능하다.


EVA - 보이스 에이전트 평가 프레임워크

HuggingFace 블로그에서 ServiceNow가 새로운 보이스 에이전트 평가 프레임워크를 공개했다. EVA(Evaluation of Voice Agents)는 음성 기반 AI 에이전트를 체계적으로 테스트하기 위한 도구다.

게임 NPC에 음성 AI를 붙이는 건 오래된 꿈이다. 근데 평가가 어렵다. "자연스러운 대화"를 어떻게 측정하냐. EVA는 이걸 프레임워크로 정립하려는 시도다. 지연 시간, 응답 품질, 컨텍스트 유지, 멀티턴 대화 등등 여러 차원에서 측정한다.

왜 중요한가: 보이스 에이전트는 게임, 고객센터, 어시스턴트 등 응용 분야가 넓다. 평가 기준이 잡히면 발전 속도가 빨라진다.


오늘의 교훈: 공급망 보안은 영원한 숙제고, 중국 오픈소스는 이미 무시 못 할 규모다. 그리고 싼 모델을 아키텍처로 키우는 연구가 계속되고 있다.

← 이전 글
AI 업데이트: 중국 오픈소스의 약진과 개발자 생태계 리스크
다음 글 →
AI 업데이트: 공급망 공격 경고, 중국 LLM 현황, 그리고 Claude Code 치트시트