🤖
1474 in / 5181 out / 6655 total tokens
🔥 핫 토픽
Claude Code 소스 유출: 가짜 도구, 좌절의 정규식, 그리고 언더커버 모드
Claude Code의 내부 구현체가 예상치 못한 방식으로 드러났다. Alex Kim이 작성한 이 글은 Claude Code가 실제로 어떻게 동작하는지, 특히 시스템 프롬프트와 도구 호출 메커니즘을 깊이 있게 분석한다. 단순한 호기심 이상으로, 이 유출은 AI 에이전트가 어떤 방식으로 사용자 의도를 해석하고 실행하는지에 대한 중요한 단서를 제공한다.
이게 왜 중요하냐면, 우리가 매일 쓰는 AI 코딩 어시스턴트가 실제로 "생각"하는 방식이 드러났기 때문이다. 특히 "좌절 정규식(frutration regexes)"이라는 표현이 인상적인데, Claude가 사용자의 불만이나 혼란을 감지하기 위해 특정 패턴을 매칭한다는 것이다. 게임 개발로 치면 NPC의 상태 머신이 플레이어의 행동 패턴을 인식해서 반응하는 것과 비슷하다. 시스템 프롬프트에 이런 감지 로직이 포함되어 있다는 건, AI 에이전트 설계가 단순한 프롬프트-응답을 넘어 메타인지 수준으로 진화했음을 시사한다.
개발자 입장에서 실무적으로 살펴보면, 가짜 도구(fake tools) 개념이 흥미롭다. Claude Code가 실제로 존재하지 않는 도구를 정의해놓고, 사용자가 특정 작업을 시도할 때 이를 가로채서 적절히 처리하는 방식이다. 이건 마치 게임 엔진에서 프록시 객체를 사용해 특정 함수 호출을 후킹하는 것과 유사하다. 언더커버 모드 또한 주목할 만한데, Claude가 자신의 정체를 숨기거나 특정 모드에서 다르게 동작하도록 설계되어 있다는 의미다. 이런 메커니즘을 이해하면 우리가 직접 AI 에이전트를 구축할 때 참고할 수 있는 패턴들이 보인다.
기술적 배경을 설명하자면, 현대 AI 에이전트는 단순히 LLM을 호출하는 게 아니라 복잡한 상태 관리와 컨텍스트 유지가 필요하다. Claude Code의 경우 시스템 프롬프트가 수만 토큰에 달한다고 추정되며, 여기에는 도구 정의, 안전 가드레일, 사용자 경험 최적화 로직이 모두 포함되어 있다. 이번 유출은 그 복잡한 시스템의 일부를 엿볼 수 있는 기회였다. 물론 보안 관점에서는 우려스러운 일이지만, 역설적으로 이런 투명성이 커뮤니티 차원의 보안 강화로 이어질 수도 있다.
출처: Alex Kim Blog
Claude Code 사용량 제한, 예상보다 훨씬 빨리 도달한다
The Register가 보도한 바에 따르면, Claude Code 사용자들이 예상보다 훨씬 빠르게 사용량 한도에 도달하고 있다. 이는 Anthropic의 가격 정책과 사용량 산정 방식에 대한 의문을 불러일으키고 있다. 많은 개발자가 "프로" 요금제를 사용하고도 몇 시간 만에 한도에 도달한다고 불만을 표시하고 있다.
이 문제의 핵심은 Claude Code가 일반적인 채팅 인터페이스와 달리 연속적이고 깊이 있는 코드 작업을 수행한다는 점이다. 파일 시스템 접근, 터미널 명령 실행, 다중 파일 수정 같은 작업은 토큰 소비가 기하급수적이다. 게임 서버 아키텍처로 비유하자면, 일반 채팅은 짧은 패킷 교환이지만, Claude Code는 지속 연결에 가까운 무거운 세션이다. 당연히 리소스 소모가 다를 수밖에 없다. 문제는 Anthropic이 이 차이를 요금제에 명확히 반영하지 않았다는 점이다.
개발자에게 미치는 영향은 상당하다. 특히 Claude Code를 메인 개발 도구로 쓰려는 경우, 예상치 못한 비용 폭증이나 서비스 중단을 겪을 수 있다. 실제로 한 사용자는 "오전에 코딩 작업을 시작했는데 점심때 이미 한도를 다 썼다"고 토로했다. 이는 비용 효율성 계산을 어렵게 만들고, 프로덕션 환경에서 Claude Code 도입을 망설이게 하는 요인이 된다. 특히 스타트업이나 인디 개발자에게는 치명적일 수 있다.
기술적으로 살펴보면, 사용량 산정 방식이 토큰 기반인지, API 호출 횟수 기반인지, 아니면 계산 리소스 기반인지 불분명하다. 앞서 언급한 소스 유출 사건과 연결지어 생각하면, Claude Code의 내부 복잡도가 사용량 계산에도 영향을 미칠 수 있다. 예를 들어, "좌절 감지" 같은 부가 기능이 추가 토큰을 소모할 수도 있다. Anthropic은 이 문제에 대해 명확한 가이드를 제공해야 하며, 사용자 역시 자신의 워크플로우에 맞는 사용량 모니터링 전략을 세워야 한다.
출처: The Register
📰 뉴스
양자 컴퓨터, 암호화 해독에 예상보다 적은 리소스로 충분하다
Ars Technica가 보도한 이 기사는 양자 컴퓨팅의 암호화 해독 능력에 대한 새로운 연구 결과를 다룬다. 핵심은 기존에 예상하던 것보다 훨씬 적은 양자 리소스로 타원 곡선 암호화(ECC)를 깰 수 있다는 것이다. 소위 "Q Day"가 예상보다 빨리, 그리고 저렴하게 올 수 있다는 경고다.
이 뉴스가 AI 개발자에게 중요한 이유는 현대 AI 시스템의 보안 기반이 바로 이 암호화 체계 위에 서 있기 때문이다. TLS, SSH, 디지털 서명, 블록체인 검증—이 모든 게 타원 곡선 암호화에 의존한다. Claude API를 호출할 때도, 모델 가중치를 전송할 때도, 결국 ECC 기반 보안 채널을 통한다. 이 기반이 흔들리면 AI 생태계 전체가 영향을 받는다.
기술적 배경을 설명하자면, 쇼어 알고리즘(Shor's algorithm)이 양자 컴퓨터로 정수 인수분해와 이산 로그 문제를 다항 시간에 풀 수 있다는 건 오래된 이론이다. 하지만 실제로 필요한 큐비트 수가 수백만 개로 추정되어서 "아직 멀었다"는 낙관론이 있었다. 이번 연구는 그 추정을 크게 낮춘다. 마치 게임 최적화에서 O(n²) 알고리즘을 O(n log n)으로 개선하는 것처럼, 양자 알고리즘 자체가 효율화되고 있는 것이다.
개발자로서 대응책을 고민해야 한다. 양자 내성 암호(Post-Quantum Cryptography, PQC)로의 마이그레이션이 더 이상 미래의 문제가 아니다. NIST가 표준화한 PQC 알고리즘들—Kyber, Dilithium, SPHINCS+—을 미리 공부해두는 게 좋다. 특히 AI API를 직접 구축하거나, 프라이빗 모델 배포를 담당하는 개발자라면 지금부터 하이브리드 암호화 체계를 고려해야 한다. 게임 서버 개발하면서 TLS 1.2에서 1.3으로 마이그레이션했던 경험과 비슷한 전환이 올 것이다.
출처: Ars Technica
갤럭시 S26의 AI 사진 기능이 추억을 "망가뜨린다"
The Verge가 보도한 이 기사는 삼성 갤럭시 S26의 AI 사진 편집 기능이 사용자 경험에 미치는 영향을 비판적으로 다룬다. 구글 픽셀 9이 시작한 AI 사진 편집을 삼성이 더 공격적으로 밀어붙인다는 내용인데, "BACKSST BOYS at the Sphere" 같은 황당한 AI 생성 결과를 예로 든다.
이 뉴스가 AI 개발자에게 시사하는 바는 크다. 바로 "AI 홀루시네이션을 사용자에게 어떻게 전달할 것인가"라는 UX 딜레마다. 게임으로 치면 절차적 콘텐츠 생성(PCG)이 때때로 말도 안 되는 결과를 내놓는 것과 비슷하다. 차이점은 게임에서는 그걸 "버그"나 "특징"으로 웃어넘길 수 있지만, 소중한 추억이 담긴 사진에서는 용납되지 않는다는 것이다. AI 기능의 신뢰성이 사용자 경험의 핵심이 되는 시대가 왔다.
기술적으로 보면, 이건 단순한 품질 문제가 아니다. 이미지 생성 모델의 불확실성과 사용자 기대치 사이의 간극을 어떻게 메울 것인가가 관건이다. 구글은 천천히, 보수적으로 기능을 론칭했지만, 삼성은 더 공격적으로 접근하다가 비판을 받고 있다. 이건 우리가 AI 기능을 출시할 때도 고민해야 할 문제다. "기능 완성도"와 "출시 속도" 사이의 균형점을 어디에 둘 것인가. 특히 사용자의 개인적 데이터를 다루는 경우, 신뢰가 한 번 깨지면 복구하기 어렵다.
앞서 언급한 Claude Code 이슈들과 연결해보면, 공통된 맥락이 보인다. AI 시스템의 내부 동작을 사용자가 이해할 수 있게 만드는 것, 그리고 현실적인 기대치를 설정하는 것이 얼마나 중요한지. Claude Code의 "좌절 정규식"이 사용자 불만을 감지하려는 시도였다면, 삼성의 AI 사진 기능은 사용자가 무엇을 원하는지 제대로 파악하지 못한 케이스다. 둘 다 결국은 "사용자 의도 이해"라는 AI의 근본적 과제와 연결된다.
출처: The Verge
Claude Code의 내부가 드러나고 사용량 이슈가 불거지는 지금, AI 도구의 "투명성"과 "지속 가능성"이 동시에 도전받고 있다.