🤖
1423 in / 4502 out / 5925 total tokens
🔥 핫 토픽
Apple, AI Siri 미제공으로 2억 5천만 달러 합의
이게 왜 중요한가: AI 기능을 약속하고 못 지킨 대가가 이렇게 구체적으로 돈으로 나타난 사례다. Apple은 Apple Intelligence 기능의 가용성에 대해 소비자를 오도했다는 집단소송에서 2억 5천만 달러에 합의했다. 이건 단순히 Apple만의 문제가 아니다. 게임 업진에서도 "이 기능은 곧 출시 예정"이라고 해놓고 몇 년을 끄는 경우가 있다. 언리얼의 Nanite 초기 지원 범위, 머티리얼 에디터 개선 등이 그랬다. 하지만 게임 엔진은 무료니까 소송까지 가진 않지만, 수백만 원짜리 폰을 산 소비자에게 "AI 기능이 곧 옵니다"라고 해놓고 안 주면 법적 책임이 따라온다.
개발자에게 미치는 영향: AI 기능을 제품에 통합할 때, roadmap에 있는 것을 마치 이미 구현된 것처럼 마케팅하면 안 된다. 특히 클라이언트나 퍼블리셔에게 AI 기반 기능을 약속할 때 정말 조심해야 한다. 내 경우에도 사이드 프로젝트에서 AI NPC 대화 시스템을 기획할 때, "GPT-4 수준의 자연스러운 대화"라고 팔면 안 되고 구체적으로 어떤 모델의 어떤 한계까지 가능한지 명시해야 한다. UE5에서 AI 시스템 구현할 때도 Behavior Tree에 AI를 녹이는 건데, 이걸 마치 완전 자율적인 AI NPC처럼 발표하면 재난이 난다.
기술 배경: Apple Intelligence는 온디바이스 AI 모델과 클라우드 AI의 하이브리드 접근을 시도 중이다. 하지만 온디바이스 추론은 하드웨어 제약이 크고, 클라우드 의존은 프라이버시 이슈가 있다. 이 두 마리 토끼를 잡으려다 일정을 못 지킨 셈이다. 게임 개발에서도 온디바이스 AI 추론 vs 서버 사이드 AI 추론의 트레이드오프는 항상 있는 문제다. 클라이언트에 모델을 넣으면 용량과 성능 이슈가 있고, 서버에 넣으면 레이턴시와 비용이 문제다.
출처: The Verge
Microsoft, Xbox Copilot AI 개발 중단
이게 왜 중요한가: Microsoft가 "모든 곳에 Copilot을" 전략을 쓰다가 처음으로 대대적인 철수를 했다. Xbox 모바일과 콘솔에서 Copilot 개발을 중단한다고 새 Xbox CEO Asha Sharma가 발표했다. 이건 단순히 "게이머가 AI를 안 쓴다"가 아니다. 게임 플랫폼에서 AI 어시스턴트가 어떤 역할을 해야 하는지 아무도 정의하지 못한 게 핵심이다. 게임 중에 뭘 물어보라고? "어떤 무기가 좋나요?" 라고 물으면 그건 AI가 아니라 위키가 해야 할 일이다.
개발자에게 미치는 영향: AI를 "있으면 좋은 것"에서 "없으면 안 되는 것"으로 만들어야 실제로 쓰인다. 게임 개발에서도 마찬가지다. AI NPC가 "그냥 대화할 수 있는" 거면 아무도 안 쓴다. 퀘스트 힌트를 준다거나, 플레이어의 플레이 스타일에 맞춰 전술을 제안한다거나, 실제 게임플레이에 영향을 줘야 한다. UE5에서 AI 시스템을 설계할 때도 "AI가 뭘 위해 존재하는가"를 먼저 답해야지, "AI를 넣을 수 있으니 넣자"는 접근은 Xbox Copilot과 같은 결과를 낳는다.
기술 배경: Xbox Copilot은 게임 플랫폼에 LLM을 통합하려는 시도였다. 하지만 게임 콘솔은 리소스가 제한적이고, 게이머는 빠른 응답을 원한다. LLM의 추론 레이턴스는 게임의 실시간성과 충돌한다. 서버에서 돌리면 네트워크 레이턴시까지 더해진다. 이건 게임 서버 아키텍처 설계할 때 항상 고민하는 문제다. 게임 로직은 16ms 틱 안에 처리돼야 하는데, AI 추론 한 번에 100ms가 걸리면 게임이 박살난다.
앞서 언급한 Apple의 사례와 맞물려 보면, "AI를 어디에 쓸 것인가"보다 "AI가 실제로 가치를 추가하는 곳이 어딘가"를 먼저 답해야 한다는 교훈이 나온다.
출처: The Verge
🛠️ 실용주의 사례
Simon Willison, datasette-referrer-policy 0.1 릴리스
이게 왜 중요한가: Simon Willison은 LLM 시대의 가장 실용적인 개발자 중 하나다. 그가 datasette-referrer-policy 0.1을 릴리스한 건, Claude 같은 AI 도구를 활용해 작은 도구를 빠르게 만드는 워크플로우를 보여준다. 거창한 AI 통합 플랫폼이 아니라, 실제로 필요한 작은 문제를 해결하는 도구다. Referrer-Policy 헤더 설정은 웹 개발에서 자주 놓치지만 보안에 중요한 부분이다. 이걸 datasette 플러그인으로 만들어서 바로 쓸 수 있게 한 거다.
개발자에게 미치는 영향: Claude Code나 Cursor 같은 AI 코딩 도구를 쓸 때, 큰 프로젝트 전체를 맡기는 것보다 이런 작은 도구 단위로 만드는 게 훨씬 생산적이다. 게임 개발에서도 UE5 플러그인 하나 만들 때 AI를 활용하면 좋다. 예를 들어 특정 타입의 에셋을 자동으로 정리하는 에디터 유틸리티 같은 거. 전체 게임을 AI가 만들게 하려는 시도는 Xbox Copilot과 같은 운명을 겪을 확률이 높다.
기술 배경: Referrer-Policy HTTP 헤더는 웹사이트가 다른 사이트로 링크할 때 얼마나 많은 정보를 노출할지 결정한다. 예를 들어 "no-referrer"로 설정하면 사용자가 어디서 왔는지 상대방 서버가 알 수 없다. datasette는 SQL 데이터베이스를 웹으로 탐색할 수 있게 해주는 도구인데, 이걸 공개 URL로 서비스하면 Referrer-Policy가 중요해진다. Simon Willison은 이런 작은 문제를 LLM을 코파일럿으로 써서 빠르게 해결하는 패턴을 계속 보여주고 있다.
앞서 언급한 Apple과 Microsoft의 사례와 대조적이다. Apple과 Microsoft는 "AI를 크게 약속하고 작게 구현"했지만, Simon Willison은 "작은 문제를 찾고 AI로 빠르게 해결"한다. 어떤 접근이 실제로 가치를 만드는지 명확하다.
💡 분석: AI의 실용성 갭
이 세 가지 뉴스를 나란히 놓으면 하나의 패턴이 보인다.
Apple은 AI를 약속하고 못 지켰고, Microsoft는 AI를 넣을 곳을 잘못 골랐고, Simon Willison은 AI를 실제로 유용한 곳에 정확히 썼다.
게임 개발자로서 이걸 어떻게 받아들여야 할까.
-
AI 기능은 구현된 것만 발표하라. Roadmap에 있는 건 roadmap일 뿐이다. Apple 사례가 보여주듯, 약속한 걸 못 지키면 법적, 재정적 대가가 따른다.
-
AI가 문제를 해결하는 곳에만 써라. Xbox Copilot이 실패한 이유는 게이머의 실제 문제를 해결하지 못했기 때문이다. "있으면 좋을 것 같은데"는 충분한 이유가 아니다.
-
작게 시작하라. Simon Willison처럼 작은 도구부터 AI 코딩을 활용하자. 전체 게임을 AI가 만들게 하려는 건 환상이고, 특정 에디터 유틸리티나 빌드 스크립트를 AI와 함께 작성하는 건 현실이다.
AI의 가치는 약속이 아니라 실행에 있다. Apple과 Microsoft는 AI를 마케팅 도구로 썼고, Simon Willison은 AI를 개발 도구로 썼다. 어떤 것이 오래가겠는가.