이 글은 AI 검수에서 통과하지 못했습니다 (점수: 75/100)
⚠️ 비어있는 섹션이 있다 🚫 죽은 링크: https://www.reuters.com/business/autos-transportation/chinas-open-source-dominance-threatens-us-ai-lead-us-advisory-body-warns-2026-03-23/ (401)
링크 오류, 품질 미달 등의 사유로 자동 분류된 글입니다.
🤖
987 in / 4259 out / 5246 total tokens
오늘은 중국 LLM 생태계가 메인이다. 미국이 공식적으로 "위협"이라고까지 표현하는 시점에서, 우리는 어떤 모델들을 눈여겨봐야 할지 정리했다.
🔥 핫 토픽: 중국 오픈소스 AI가 미국을 초조하게 만든다
미국 자문기구 "중국 오픈소스 dominance가 미국 AI 리더십을 위협한다"
미국 의회 자문기구가 공식적으로 경고했다. 중국의 오픈소스 AI 전략이 미국의 기술 우위를 흔들고 있다는 내용이다.
재미있는 건 작년까지만 해도 "중국은 따라잡힐 수 없다"는 분위기였는데, 이제는 역으로 "중국 오픈소스가 너무 강력하다"는 이야기가 나온다. DeepSeek-V3, Qwen2.5 시리즈만 봐도 실제로 성능이 막강하다. 로컬 LLM으로 게임 NPC AI 돌릴 때 Qwen 쓰는 분들 많이 봤을 거다. 가성비가 진짜 좋다.
왜 중요한가: 정치적 레토릭을 떠나서, 오픈소스 생태계의 힘이 공식적으로 인정된 시점이다. 개발자 입장에선 더 많은 선택지가 생긴다는 의미.
출처: Reuters
중국 LLM 현황 정리: Big Players부터 스타트업까지
https://www.reddit.com/r/LocalLLaMA/comments/1s1gm9z/the_current_state_of_the_chinese_llms_scene/
r/LocalLLaMA에 중국 LLM 생태계를 정리한 고퀄리티 포스트가 올라왔다. 직접 리서치한 내용이라 디테일이 살아있다.
핵심 플레이어들을 간추리면:
- ByteDance (Doubao/Seed): 현재 중국에서 가장 aggressive하게 밀고 있다. 모델 퀄리티도 좋고 API 가격도 싸다.
- Alibaba (Qwen): 오픈소스 진영의 선봉장. Qwen2.5는 이미 글로벌하게 검증됐다.
- DeepSeek: 작년 말 V3 터트리고 이름값 했다. 추론 성능 vs 가격 비율이 미쳤다.
- ZhipuAI (GLM): Tsinghua 대학 스타트업. 기술력은 검증됐는데 글로벌 노출이 좀 아쉽다.
- Moonshot (Kimi): 롱컨텍스트에 특화. 200K 토큰 넣어도 잘 돌아간다.
게임 개발자 입장에서 팁을 하나 주면, NPC 대화나 퀘스트 생성용으로 Qwen2.5-7B나 DeepSeek-V3-lite 같은 걸 로컬에 깔아서 쓰는 게 요즘 트렌드다. 한국어 지원도 생각보다 괜찮다.
왜 중요한가: 중국 모델들이 단순히 "저렴한 대안"을 넘어서 SFT, RAG 파이프라인까지 포함한 완성된 생태계를 제공하기 시작했다.
📰 블로그 & 프레임워크
Simon Willison: Streaming Experts
https://simonwillison.net/2026/Mar/24/streaming-experts/#atom-everything
Simon Willison이 "스트리밍 전문가"에 대한 에세이를 썼다. LLM 응답을 스트리밍으로 내보낼 때의 UX, 기술적 고려사항을 다룬다.
스트리밍이 왜 중요한지 체감하려면 게임 만들 때 한 번 생각해보라. NPC랑 대화하는데 3초 동안 아무 반응 없다가 갑자기 텍스트가 뿅 나오면 이거부터가 이미 게임 경험을 망친다. 토큰 단위로 흘러나오는 게 체감 지연을 줄여주고, "뭔가 하고 있다"는 느낌을 준다.
서버 아키텍처 관점에서도 스트리밍은 신경 쓸 게 많다. 연결 유지, 백프레셔 처리, 클라이언트 렌더링 타이밍 등등. UE5에서 Slate/UMG로 타이핑 이펙트 구현할 때도 스트리밍 토큰을 어떻게 받아서 어떻게 뿌려줄지 설계가 필요하다.
왜 중요한가: LLM 앱 만들 때 스트리밍은 이제 "있으면 좋은 기능"이 아니라 필수 UX 요소다.
EVA: 음성 에이전트 평가를 위한 새로운 프레임워크
https://huggingface.co/blog/ServiceNow-AI/eva
ServiceNow와 HuggingFace가 협업해서 EVA(Evaluation of Voice Agents) 프레임워크를 공개했다.
음성 AI 에이전트를 평가할 때 기존엔 뭘 썼는가? STT 정확도, 응답 시간, 사용자 만족도 설문... 이걸 종합적으로 프레임워크화한 게 EVA다. 다음 영역들을 평가한다:
- Speech Recognition: 얼마나 정확하게 사용자 말을 이해하나
- Natural Language Understanding: 의도 파악, 엔티티 추출
- Dialogue Management: 맥락 유지, 멀티턴 대응
- Speech Synthesis: 자연스러운 출력
- End-to-End Latency: 사용자 발화부터 응답까지의 지연
게임에서 보이스 챗봇 NPC 만들 때 참고할 만하다. 특히 지연 메트릭은 게임 경험에 직결된다. UE5 AudioCaptureComponent + Whisper + LLM + TTS 파이프라인 돌릴 때 각 단계별로 어디서 병목이 터지는지 EVA식으로 측정해보면 최적화 포인트가 보인다.
왜 중요한가: 음성 에이전트 개발할 때 "잘 만들었다"를 객관적으로 측정할 기준이 생겼다.
출처: HuggingFace Blog
💭 마무리 생각
중국 LLM 이야기가 메인이었는데, 개인적으로 작년에 DeepSeek-V3 나왔을 때가 가장 기억에 남는다. "아, 미국 독주는 아니구나"를 체감한 순간이었다. Qwen으로 게임 NPC 실험해봤는데 한국어 프롬프트 넣어도 잘 작동하더라. 물론 파인튜닝은 필요하지만.
오픈소스 생태계가 이렇게 치열해지는 건 개발자 입장에선 반가운 일이다. 선택지가 많아지니까.
중국 모델 쓴다고 매국노도 아니고, 미국 모델 쓴다고 애국자도 아니다. 그냥 내 프로젝트에 맞는 걸 쓰면 된다.