ai signal

AI 업데이트: 샤오미 오픈소스 LLM의 약진과 Palantir의 내부 분열

R
이더
2026. 04. 26. PM 02:55 · 7 min read · 0

🤖 1383 in / 3388 out / 4771 total tokens

🔥 핫 토픽

샤오미 MiMo V2.5 Pro, Artificial Analysis 인덱스 54위 달성 — 가중치 공개 예고

샤오미가 자체 개발한 대언어모델 MiMo V2.5 Pro가 Artificial Analysis Intelligence Index에서 54위를 기록했다. Reddit r/LocalLLaMA 커뮤니티에서 "Weights are coming"이라는 제목과 함께 화제를 모으고 있으며, 샤오미 공식 계정에서도 가중치 공개를 예고한 상태다. 이건 단순히 중국 기업이 하나의 모델을 내놓은 수준이 아니다. 상위 50위권 진입을 눈앞에 둔 성능이며, 오픈소스 생태계에 대한 직접적인 도발이다.

왜 이게 중요하냐. LLM 경쟁이 이제는 미국 빅테크 vs 중국 빅테크 구도로 완전히 굳어가는 와중에, 샤오미 같은 하드웨어 중심 기업이 소프트웨어 영역에서 이 정도 결과물을 내놓는다는 건 의미심장하다. 게다가 가중치를 공개하겠다는 건, Meta의 Llama 시리즈나 Mistral처럼 오픈소스 커뮤니티에 정면으로 덤비겠다는 뜻이다. 로컬 추론 커뮤니티인 r/LocalLLaMA에서 392점의 높은 스코어를 받은 것도 이 때문이다. 실제로 돌려볼 수 있고, 파인튜닝도 가능한 모델이 또 하나 추가되는 셈이다.

개발자 관점에서 보면, 또 하나의 강력한 로컬 모델 선택지가 생기는 것이다. 게임 개발 사이드프로젝트에서 NPC 대화 시스템이나 프로시저럴 콘텐츠 생성에 LLM을 붙이려면, API 호출 비용이 발목을 잡는다. MiMo V2.5 Pro가 진짜로 성능이 괜찮고 가중치가 공개되면, 로컬에서 돌리는 NPC 브레인으로 쓸 수 있다. 물론 실제 성능은 벤치마크와 다를 수 있으니 직접 테스트해봐야 한다. Artificial Analysis 인덱스가 54위면 준수한 편이지만, 실제 한국어 처리나 게임 도메인 특화 태스크에서 어떻게 동작할지는 별개 문제다.

기술 배경을 조금 덧붙이자. Artificial Analysis Intelligence Index는 다양한 벤치마크를 종합적으로 평가하는 지표인데, 단순 MMLU 같은 지식 벤치마크뿐 아니라 코딩, 수학, 추론 능력까지 아우른다. 54위가 어느 정도냐면, 앞쪽에는 GPT-4o, Claude, Gemini 계열이 있고, 그 아래에 Llama 3.1, Mistral Large 같은 오픈소스 친화적 모델들이 포진해 있다. 샤오미가 이 위치까지 올라왔다는 건 모델 아키텍처와 학습 파이프라인 모두에서 상당한 투자가 이루어졌다는 증거다. 특히 샤오미는 스마트폰, IoT, 자율주행 등 다양한 엣지 디바이스를 보유하고 있어서, 온디바이스 AI와의 시너지도 기대할 수 있다.

한 가지 걱정은 서버 최적화다. UE5 게임 서버 아키텍처를 다루다 보면, LLM 추론 서버의 메모리 관리와 스케줄링이 얼마나 까다로운지 안다. MiMo의 실제 서빙 성능, 특히 지연 시간과 처리량은 가중치가 공개된 후 커뮤니티의 검증을 거쳐야 확실해진다.

출처: Reddit r/LocalLLaMA - Weights are coming. Xiaomi's MiMo V2.5 Pro


📰 뉴스

Palantir 직원들, 회사의 "파시즘으로의 전락"을 논하다 — 내부 슬랙 메시지와 인터뷰로 드러난 혼란

Palantir 내부에서 정치적, 윤리적 갈등이 터져 나오고 있다. 현재 및 전 직원들과의 인터뷰, 유출된 슬랙 메시지 등을 통해 회사 내부가 심각한 혼란에 빠져 있다는 사실이 Ars Technica 보도로 밝혀졌다. 직원들이 "파시즘으로의 전락"이라는 표현까지 쓰고 있다는 건, 단순한 사내 불만 수준이 아니다.

Palantir은 원래 데이터 분석 플랫폼 기업이다. Peter Thiel이 공동 창업했고, CIA의 벤처캐피털인 In-Q-Tel의 초기 투자를 받았으며, 군사 및 정보 기관과의 계약으로 성장했다. 처음에는 테러리스트 추적, 범죄 수사 같은 명분이 있었지만, 점점 이민자 단속, 감시 시스템 구축 등 윤리적으로 논란이 있는 영역으로 확장해왔다. 그리고 최근 AI 기능을 대거 탑재하면서, 감시와 통제의 스케일이 완전히 달라진 것이다.

이 뉴스가 AI 업계에 중요한 이유는, AI 기술의 윤리적 사용이 더 이상 철학적 논쟁이 아니라 현장의 실제 문제라는 걸 보여주기 때문이다. Palantir은 AI 시스템을 정부 계약에 팔아온 대표적인 기업이다. 직원들이 윤리적 문제를 제기하면서도 회사를 떠나지 못하는 구조적 딜레마, 그리고 그것이 내부 슬랙에서 어떻게 폭발하는지가 이 기사의 핵심이다.

개발자 관점에서 보면, 우리가 만드는 기술이 어떻게 쓰이는지에 대한 책임의 문제다. 게임 개발에서 AI NPC가 플레이어를 조종하거나 과도한 과금을 유도하는 패턴을 만들 수도 있다. 물론 게임은 게임이지만, 시스템 설계자의 의도가 사용자 경험을 어떻게 형성하는지는 동일한 맥락이다. Palantir 사례는 극단적이지만, "기술은 중립적이다"라는 변명이 더 이상 통하지 않는 시대의 단면이다.

앞서 언급한 샤오미 MiMo의 가중치 공개와 맞물려 생각해볼 점이 있다. 오픈소스 LLM은 누구나 접근할 수 있기 때문에, 악의적 사용의 가능성도 열려 있다. 반면 Palantir처럼 폐쇄적인 시스템에서는 내부 통제가 가능하지만, 그 통제의 방향성이 직원들의 윤리관과 충돌할 수 있다. 기술의 개방성과 통제 사이의 긴장이 AI 시대의 핵심 쟁점이다.

실무적으로, AI 관련 프로젝트를 진행할 때 윤리 가이드라인이나 사용 정책을 명확히 설정하는 것이 중요하다. 특히 B2B나 B2G 프로젝트에서는 기술적 의사결정이 사회적 파장을 일으킬 수 있다. Palantir 직원들의 고민은 남의 일이 아니다. 언제든 우리가 직면할 수 있는 문제다.

출처: Ars Technica - Palantir employees are talking about company's descent into fascism


🔗 두 뉴스를 관통하는 하나의 흐름

두 뉴스는 전혀 다른 주제 같지만, "AI 기술의 민주화와 통제"라는 축에서 연결된다. 샤오미는 강력한 LLM을 오픈소스로 풀어서 기술의 민주화에 기여하려 한다. Palantir은 강력한 AI 시스템을 정부와 결합하여 통제의 도구로 만들고 있고, 그 과정에서 내부의 윤리적 저항이 부딪히고 있다. 한쪽은 기술을 널리 퍼뜨리려 하고, 다른 한쪽은 기술을 닫힌 시스템 안에서 운용하려 한다. 둘 다 각자의 방식으로 AI의 미래를 만들어가고 있다.

기술은 도구다. 하지만 그 도구를 누가, 어떻게, 왜 쓰는지가 결국 모든 걸 결정한다. 가중치가 공개되는 날, 그걸 뭐에 쓸 건지는 우리 몫이다.

← 이전 글
AI 업데이트: 1비트 픽셀 아트의 재발견과 실시간 챗봇 아키텍처
다음 글 →
Codex 세션도 resume 명령어 복붙 지원, v3.4.0