🤖
1334 in / 3187 out / 4521 total tokens
🔥 핫 토픽
OpenAI-Microsoft AGI 조항이 사라졌다 — 그게 왜 중요한가
Simon Willison이 정리한 글에 따르면, OpenAI와 Microsoft 사이에 존재하던 'AGI 조항'이 사실상 폐기됐다. 이 조항은 원래 "OpenAI가 AGI를 달성하면 Microsoft의 라이선스가 무효가 된다"는 내용이었다. 즉, AGI는 영리적 착취 대상이 아니라는 OpenAI 창립 철학의 마지막 잔해였다. 그런데 이 조항이 2024년 말 구조조정 과정에서 조용히 제거됐고, 이제는 공식 문서에서도 찾아볼 수 없다.
왜 이게 중요하냐. AGI 조항은 OpenAI가 비영리에서 공익법인으로 전환하면서도 마지막으로 붙들고 있던 '안전장치'였다. 이게 사라졌다는 건, AGI 달성 여부를 판단하는 기준 자체가 상업적 협상의 대상이 됐다는 뜻이다. 게다가 AGI를 '달성했다'고 선언할 인센티브도 사라졌다. 달성하면 Microsoft와의 계약이 끝나니까. 반대로 달성하지 않았다고 주장할 인센티브는 생겼다. 영원히 AGI입니다 안 됐습니다 하면서 라이선스 비용은 계속 받아가는 구조가 될 수 있다.
Anthropic 관점에서 보면 이건 묘하게 아이러니하다. Anthropic은 애초에 OpenAI의 '안전 우선' 철학에 동의하지 못해 떨어져 나온 사람들이 만든 회사다. 그런데 정작 OpenAI가 그 철학의 마지막 흔적마저 버리는 걸 보면, Anthropic의 존재 이유가 더욱 선명해진다. Claude를 쓰는 개발자로서 느끼는 건데, Anthropic이 Responsible Scaling Policy 같은 걸 계속 공개적으로 유지하는 이유가 이런 맥락에서 이해가 간다. 시장에서 '우리는 다르다'를 증명해야 하니까.
실무적인 영향도 있다. AGI 조항이 사라진 건 OpenAI가 Microsoft와의 관계를 더 깊게 묶었다는 뜻이고, 이는 Azure 인프라에 대한 의존도가 더 높아졌음을 의미한다. 게임 서버 아키텍처를 설계할 때 클라우드 벤더 종속성을 고민하는 것과 비슷하다. 한 벤더에 너무 깊게 물리면 나중에 빠져나오기 힘들다. AI 모델 선택도 마찬가지다. OpenAI API에 깊게 의존하는 프로젝트를 짜고 있다면, 장기적으로 가격 정책이나 라이선스 조건이 어떻게 변할지 예측하기 어려워졌다.
출처: Simon Willison - Tracking the history of the now-deceased OpenAI Microsoft AGI clause
📰 뉴스
Google 직원 600명, 군사 AI 사용에 반대 서명 — Anthropic은 어떻게 다른가
Google 직원 600여 명이 CEO Sundar Pichai에게 서명을 보냈다. 내용은 간단하다. 펜타곤의 기밀 등급 군사 작업에 Google AI를 사용하지 말라는 요구다. 2018년 Project Maven 때도 비슷한 반발이 있었고, 그때는 Google이 'AI 원칙'을 세워서 군사적 사용을 제한하겠다고 약속했다. 하지만 2025년 현재, 그 원칙은 점점 흐려지고 있다. Pentagon의 Joint Warfighting Cloud Capability 같은 프로젝트에 Google이 참여하면서 경계선이 모호해진 상태다.
이 뉴스를 Claude/Anthropic 맥락에서 보면 흥미로운 이유가 있다. Anthropic은 창립 때부터 '안전하고 신뢰할 수 있는 AI'를 내세웠고, 실제로 군사적 응용에 대한 입장을 비교적 명확히 해왔다. 물론 Anthropic도 정부 계약을 아예 안 하는 건 아니다. 하지만 Google처럼 '조직 내부에서 대규모 반발이 일어나는' 수준의 모순은 아직 보이지 않는다. 이건 기술 윤리가 아니라 조직 설계의 문제다. 애초에 안전을 최우선으로 세운 회사는 내부적으로 가치 충돌이 적다.
개발자 관점에서 생각해보면, 내가 만드는 AI 파이프라인이 최종적으로 어디에 쓰일지 고민해야 하는 시점이 왔다. UE5로 게임 만들 때는 이런 고민을 안 했다. 게임은 게임이니까. 하지만 AI 도구는 다르다. 내가 구축한 RAG 시스템이나 에이전트 파이프라인이 어떤 목적에 활용될지, 그걸 어디까지 고려해야 할지. 물론 개별 개발자가 다 통제할 수는 없다. 그래도 API를 선택할 때, 모델 제공사의 윤리 입장을 확인하는 습관은 들여야 한다고 생각한다. Claude API를 쓰는 이유 중 하나가 이런 부분이다.
앞서 언급한 AGI 조항 문제와 이 Google 직원의 서명은 결국 같은 구조적 문제를 가리킨다. 'AI 기업의 원래 목적과 상업적/군사적 압력 사이의 긴장'이다. OpenAI는 AGI 조항을 버렸고, Google은 직원 내부에서 갈등이 터지고 있다. Anthropic은 아직 이런 수준의 공개적 갈등이 없지만, 회사가 커지고 자본 압력이 커지면 언제든 비슷한 상황이 올 수 있다. 개발자로서 이런 업계 동향을 주시하는 이유는, 내가 의존하는 AI 인프라의 방향성이 하루아침에 바뀔 수 있기 때문이다.
출처: The Verge - Google employees ask Sundar Pichai to say no to classified military AI use
🧩 개발자 관점 종합 분석
두 뉴스를 묶어서 보면 한 가지 패턴이 보인다. AI 기업의 '초기 철학'이 자본과 권력의 압력에 의해 어떻게 변형되는가. OpenAI는 AGI 조항을 폐기했고, Google은 AI 원칙을 점점 느슨하게 적용하고 있다. Anthropic은 아직 이 궤도에 들지 않았지만, Amazon의 대규모 투자를 받은 이상 완전히 자유로울 수는 없다.
실무적으로 당장 영향은 없다. 오늘 Claude API가 갑자기 작동 안 하거나, 가격이 두 배로 오르거나 하진 않는다. 하지만 장기적으로, AI 생태계가 어떤 방향으로 수렴할지 결정하는 건 기술이 아니라 거버넌스다. 빅테크가 군사 AI에 뛰어들면, 연구 커뮤니티의 talent pool도 그쪽으로 빨려간다. 안전 연구에 투자할 인력과 자원이 줄어든다는 뜻이다.
내가 사이드프로젝트로 AI 에이전트를 만들 때 느끼는 건데, 모델 선택에서 '성능'만 보던 시대가 지나가고 있다. 이제는 '이 회사가 5년 뒤에도 같은 방향으로 갈 것인가'를 고민하게 됐다. 게임 개발할 때는 엔진 선택이 기술적 결정이었지만, AI 도구 선택은 이제 부분적으로 정치적 결정이 됐다. 불편하지만 현실이다.
AI 기업의 철학은 투자받기 전까지 유효하다. 개발자는 어떤 모델의 API를 붙잡을지 결정하기 전에, 그 회사가 무엇을 지키려 하는지를 봐야 한다. 코드보다 중요한 게 남은 시대다.