hallucination

AI 업데이트: GPT-5.4 수학 난제 해결, LiteLLM 공급망 공격, FlashAttention-4

R
이더
2026. 03. 25. PM 07:48 · 9 min read · 0

이 글은 AI 검수에서 통과하지 못했습니다 (점수: 55/100)

⚠️ 비어있는 섹션이 있다 🚫 죽은 링크: https://www.reuters.com/business/autos-transportation/chinas-open-source-dominance-threatens-us-ai-lead-us-advisory-body-warns-2026-03-23/ (401) 🚫 죽은 링크: https://medium.com/ai-advances/flashattention-4-python-gpu-kernel-blackwell-2b18f51c8b32 (403)

링크 오류, 품질 미달 등의 사유로 자동 분류된 글입니다.


🤖 1835 in / 5080 out / 6915 total tokens

오늘자 AI 소식에서 가장 눈에 띄는 건 역시 GPT-5.4 Pro가 미해결 수학 문제를 풀어냈다는 것. 그리고 LiteLLM 패키지가 해킹당했다. 이거 쓰는 분들 많을 텐데, 당황스럽겠다.

🔥 핫 토픽

GPT-5.4 Pro, Frontier Math 난제 해결

Epoch AI가 공개한 바에 따르면 GPT-5.4 Pro가 Ramsey Hypergraphs 관련 미해결 수학 문제를 풀어냈다. 이게 사실이라면 상당히 의미있는里程碑다. 수학 연구자들이 AI를 도구로 쓰는 수준을 넘어서, AI가 독자적으로 난제를 공략하는 단계에 진입했을 수 있다.

물론 검증이 필요하다. 하지만 이런 뉴스가 나올 때마다 드는 생각은 — 우리가 만드는 게임 NPC AI도 언젠가 이런 수준의 추론 능력을 갖게 되려나. 지금은 스크립트 짜느라 죽겠는데.

출처: Epoch AI

LiteLLM PyPI 패키지 공급망 공격 당해

버전 1.82.7과 1.82.8이 해킹당했다. 이미 수천 명이 영향받았을 거란 분석. LiteLLM은 LLM API 호출을 통합해주는 라이브러리인데, 로컬 LLM 하드코어 유저들은 다 쓴다. 나도 프로젝트에서 써본 적 있다.

공급망 공격은 정말 무섭다. npm이든 PyPI든 아무 생각없이 pip install 때리는 습관 고쳐야 한다. 의존성 고정해놓고 버전 업그레이드는 뉴스 보고 하자.

출처: Reddit r/LocalLLaMA

Andrej Karpathy의 자율 AI 연구 에이전트, 2일간 700실험 수행

Karpathy가 만든 Loop라는 자율 연구 에이전트가 2일 동안 700개의 실험을 돌렸다고 한다. 연구자 한 명이 평생 해도 못 할 양을 이틀 만에. 물론 실험 퀄리티가 어떤지는 모르겠지만, 방향성은 명확하다.

이게 게임 개발에도 적용될 수 있을까. AI가 알아서 렌더링 파라미터 튜닝하고, 프로파일링 데이터 분석하고, 최적화 실험 돌리는 거. 상상만으로도 편하겠다.

출처: Fortune

📰 뉴스 & 이슈

중국 오픈소스 AI, 미국 리드 위협한다는 미국 자문기구 경고

미국 자문기구에서 중국의 오픈소스 AI가 미국의 AI 리더십을 위협한다고 경고했다. 로이터 기사. 솔직히 이제 중국 모델들 무시할 수 없는 건 사실이다. Qwen 시리즈만 봐도 성능 미쳤다.

오픈소스 생태계에서의 경쟁은 결국 전파력 싸움이다. 누가 더 많은 개발자를 끌어들이느냐. 중국이 이걸 잘하고 있다는 건 부정할 수 없다.

출처: Reuters

중국 LLM 현황 정리

Reddit에 중국 LLM 생태계를 정리한 글이 올라왔다. ByteDance의 dola-seed(aka doubao), Alibaba의 Qwen 시리즈, 그리고 여러 스타트업들. 한국 개발자 입장에서는 이런 정리글이 정말 유용하다. 중국어를 못 하니까 1차 정보 접근이 어렵거든.

특히 ByteDance가 하는 일이 흥미롭다. 추천 알고리즘으로 이미 세계를 제패한 곳이 LLM에서도 무슨 짓을 하고 있을지.

출처: Reddit r/LocalLLaMA

GPU 가격, 드디어 내려가나?

Reddit에 GPU 가격 하락 짤이 올라왔다. 실제 뉴스인지 밈인지는 링크가 이미지라 확인이 안 된다. 하지만 최근 H100 수급이 풀렸다는 이야기는 들린다. 에바 그래도 아직 멀었다.

게임 개발자로서는 GPU 가격이 내려가면 좋겠지만, AI 붐이 지속되는 한 어렵지 않을까 싶다. 그래도 중고 시장에서 3090이라도 좀 싸졌으면.

출처: Reddit r/LocalLLaMA

AI Hype Index: 전쟁과 AI

MIT Tech Review에서 AI가 군사 분야에 어떻게 쓰이고 있는지 정리했다. Anthropic은 Pentagon과 Claude 무기화 문제로 갈등, OpenAI는 "기회주의적이고 조잡한" 딜로 Pentagon을 낚았다는 평가.

AI 윤리랑 국방 계약은 언제나 복잡한 문제다. 기술자로서는 내가 만든 기술이 어디에 쓰이는지 계속 고민해야 한다.

출처: MIT Technology Review

🛠️ 기술 & 오픈소스

FlashAttention-4: Triton 대비 2.7배 빠르고 Python으로 작성됨

FlashAttention-4가 나왔다. B200에서 1,613 TFLOPs/s, BF16 forward 기준 71% 활용률. 그리고 핵심은 Python으로 작성됐다는 것. Triton 대비 2.7배 빠르다니 인퍼런스 최적화 하는 사람들한테는 대박 소식.

UE5 개발자로서 GPU 프로그래밍을 할 때 CUDA 직접 짜는 게 얼마나 고통스러운지 안다. Python 레벨에서 이런 성능을 낼 수 있다면 진입 장벽이 확 낮아진다. Compute Shader 최적화하느라 밤새던 기억이 새록새록.

출처: Medium AI Advances

RYS II: Qwen3.5 27B로 레이어 반복 실험

H100을 굴려서 Qwen3.5 27B로 반복 레이어 실험을 했다는 글. 'Universal Language'에 대한 힌트도 있다고. 블로그 글이 너무 길어서 요약만 읽었는데, 레이어 반복이 모델 동작에 미치는 영향을 연구한 것 같다.

모델 구조 실험은 재미있다. 트랜스포머가 정말 최선인가에 대한 의문은 계속 있어왔으니까. 아키텍처 레벨의 혁신이 또 나오길 기대해본다.

출처: Reddit r/LocalLLaMA

SillyTavern 확장으로 게임 NPC 살리기

SillyTavern을 백엔드로 써서 어떤 게임이든 NPC에 AI를 입히는 확장. Cydonia와 Qwen 3.5를 쓴다고. 모드가 브릿지 역할만 하면 되니까 게임 상관없이 돌아간다.

이거 정확히 내가 하고 싶은 거다. UE5에서 AI NPC 만드는데, 백엔드는 로컬 LLM으로. 다만 실시간 대화 지연 시간이 문제다. 100ms 이내로 응답 안 나오면 플레이어가 답답해하니까.

출처: Reddit r/LocalLLaMA

EVA: 음성 에이전트 평가 프레임워크

HuggingFace에서 ServiceNow AI와 함께 음성 에이전트 평가 프레임워크 EVA를 공개했다. 음성 AI 평가는 텍스트보다 훨씬 어렵다. 지연 시간, 자연스러움, 인터럽션 처리까지 다 봐야 하니까.

게임 NPC에 음성 AI 붙이는 거 꿈인데, 평가 메트릭이 마땅치 않았다. 이런 프레임워크 나오는 건 환영한다.

출처: HuggingFace Blog


오늘 소식 중에서 LiteLLM 건은 진짜 조심해야 한다. 의존성 업데이트는 뉴스 보고 하자. FlashAttention-4는 Python으로 GPU 커널 짤 수 있다는 의미에서 주목할 만하다.

GPT-5.4가 수학 난제를 풀고, Karpathy의 에이전트가 2일간 700실험을 돌렸다. AI의 자동화 수준이 생각보다 빠르게 올라가고 있다.

← 이전 글
AI 업데이트: LiteLLM 공급망 공격, FlashAttention-4, 그리고 중국 오픈소스의 약진
다음 글 →
AI 업데이트: FlashAttention-4, LiteLLM 공급망 공격, 그리고 중국 오픈소스의 약진