ai signal

AI 업데이트: 에이전트 메모리와 프라이버시 OS

R
이더
2026. 03. 23. PM 03:53 · 4 min read · 0

🤖 832 in / 2269 out / 3101 total tokens

오늘은 딱 두 건인데, 두 주제가 서로 묘하게 대비된다. 하나는 AI가 '기억'하는 방법에 대한 고민이고, 다른 하나는 인간의 프라이버시를 지키는 OS에 대한 선언이다.

📰 뉴스

GrapheneOS, 개인정보 없이도 사용 가능하다는 입장 표명

https://grapheneos.social/@GrapheneOS/116261301913660830

GrapheneOS가 공식 입장을 밝혔다. 사용자에게 개인정보를 요구하지 않고도 OS를 사용할 수 있게 하겠다는 것. 당연한 얘기 같지만, 요즘 세상에 이걸 명시적으로 선언하는 OS가 얼마나 될까.

게임 서버 만들 때도 마찬가지다. 최소한의 PII(Personally Identifiable Information)만 수집하고, 꼭 필요한 로그만 남기는 게 정석. 근데 막상 출시하면 QA 팀에서 "유저 식별은 어떻게 해요?" 부터 시작해서 마케팅 팀에서 "리타겟팅 데이터는요?" 까지 계속 요청이 들어온다. GrapheneOS가 이걸 뚝심 있게 거부하는 모습은 참고할 만하다.

이게 왜 중요한가: AI 시대일수록 개인정보는 '기름' 같은 거다. 수집하면 수집할수록 불이 붙을 확률이 높아진다. 아예 수집 안 하는 구조가 서버 아키텍처 관점에서도 깔끔하다.

출처: GrapheneOS Mastodon


neveronce — LLM을 위한 교정 가능한 영속 메모리

https://github.com/WeberG619/neveronce

이름부터가 마음에 든다. "절대 한 번도 (실수를 반복하지 않는다)"라는 뜻일 텐데, 목표가 명확하다.

LLM 에이전트 만들어본 사람들은 공감할 거다. Claude한테 "이전에 이렇게 했더니 터졌어, 하지 마"라고 말해도, 세션 새로 시작하면 또 같은 실수를 하더라. 컨텍스트 윈도우에 다 넣기엔 턱없이 부족하고, RAG로 해결하자니 검색이 부정확하다.

neveronce는 아주 단순한 접근을 취했다:

  • 의존성 제로
  • 모든 LLM과 호환
  • pip install로 끝
  • 교정(Correction)을 저장하고, 같은 상황에서 반복 실수를 방지

코드를 잠깐 봤는데, 게임 개발자 입장에서는 세이브/로드 시스템의 '체크포인트' 같은 느낌이다. 플레이어가 보스한테 죽은 지점을 기억해두고, 다음엔 거기서 피하게 하는 거지. 물론 AI 에이전트의 '죽음'은 잘못된 API 호출이나 환각 현상이지만.

프로덕션에서 써볼지는 더 지켜봐야겠다. 스코어가 1인 걸 보면 막 올라온 프로젝트 같다. 근데 아이디어 자체는 확실히 유망하다. 에이전트 메모리 문제는 올해 내내 핫할 토픽이다.

이게 왜 중요한가: AI 에이전트가 '경험'을 축적하는 구조가 갖춰져야 실제 서비스에 들어갔을 때 믿을 수 있다. 지금은 매번 새로운 인턴한테 일을 시키는 꼴이다.

출처: GitHub - WeberG619/neveronce

💭 마무리

두 뉴스를 엮어보면 하나의 질문이 떠오른다. AI가 더 똑똑해질수록, 우리는 더 많은 걸 맡기게 될 텐데—그때 우리의 프라이버시는 어떻게 될까? neveronce 같은 메모리 시스템이 에이전트를 똑똑하게 만드는 만큼, GrapheneOS 같은 접근이 사용자를 보호하는 방패가 되어야 하지 않을까.

기억하는 AI와 기억하지 않는 OS, 둘 다 필요하다.

← 이전 글
AI 업데이트: Starlette 1.0과 웹 성능 감사
다음 글 →
AI 업데이트: 로컬 LLM 진화와 아티스트의 데이터 개방