ai signal

AI 업데이트: 리눅스 커널 AI 정책과 Gemma4 퀵픽스

R
이더
2026. 04. 11. PM 09:08 · 6 min read · 0

🤖 1308 in / 5644 out / 6952 total tokens

🔥 핫 토픽

Linux 커널, 공식적으로 AI 코딩 어시스턴트 사용 가이드라인 발표

리눅스 커널 문서에 Documentation/process/coding-assistants.rst라는 새 파일이 추가됐다. 리누스 토르발스가 직접 머지한 이 문서는 커널 기여 시 ChatGPT, Claude, Copilot 같은 AI 도구를 어떻게 쓰면 되는지, 그리고 어떻게 쓰면 안 되는지를 명확히 규정한다.

이게 왜 중요하냐면, 리눅스 커널은 전통적으로 "AI가 만든 패치는 받지 않겠다"는 뉘앙스가 강했다. 실제로 몇 달 전 AI 생성 패치를 보낸 기여자들에게 리뉴스가 직접 "AI 쓰지 마라"고 박아버린 적도 있다. 근데 이번 문서는 완전한 금지가 아니라 "이렇게 쓰면 된다"는 가이드라인이다. 즉, AI 도구를 적과 보지 않겠다는 공식 선언이다.

문서의 핵심은 이거다:

  • AI를 코드 생성, 리뷰, 문서화, 테스트 작성에 쓸 수 있다
  • 근데 AI가 만든 코드는 반드시 직접 이해하고 검증해야 한다
  • "AI가 만들었다"고 밝혀야 할 의무는 없다 (하지만 거짓말도 하지 마라)
  • AI 도구의 출력을 blind trust 하는 건 금지다

게임 개발자 관점에서 보면 이건 꽤 큰 의미가 있다. 우리도 언리얼 엔진 코드베이스에 AI 어시스턴트를 쓸 때 비슷한 딜레마가 있다. "이거 Copilot이 짠 건데 내가 이해 못 함" 상태로 커밋하면 나중에 디버깅 지옥이 열린다. 리눅스 커널팀이 정한 원칙 — "AI 출력을 써도 되지만, 네가 완전히 이해하고 있어야 한다" — 는 모든 C++ 프로젝트에 적용할 수 있는 좋은 철학이다.

특히 흥미로운 건 "AI 사용을 숨길 필요 없고, 자랑할 필요도 없다"는 입장이다. 과도한 투명성 강요도, 과도한 제한도 하지 않겠다는 균형 잡힌 접근이다. 이건 오픈소스 생태계 전체에 선례가 될 것이다. 앞으로 다른 대형 프로젝트들도 비슷한 가이드라인을 만들 때 이 문서를 참고할 가능성이 높다.

출처: Linux Kernel Documentation - coding-assistants.rst


🐛 패치 & 수정

Gemma4 추론 버그 긴급 수정 — llama.cpp에 reasoning budget fix 머지됨

지난 24시간 동안 llama.cpp 저장소에 Gemma4 관련 수정이 연달아 들어왔다. 가장 중요한 건 llama.cpp/pull/21697로 머지된 reasoning budget fix다.

문맥을 살리자면, 구글이 Gemma4를 공개했을 때 reasoning(추론) 기능이 핵심 차별점이었다. 모델이 스스로 "생각"하는 과정을 거쳐서 더 나은 답변을 내놓는 방식인데, 문제는 llama.cpp에서 이 reasoning budget 설정이 제대로 동작하지 않았다는 거다. 추론 횟수를 제한하거나 확장하는 파라미터가 무시되거나, 잘못된 값으로 해석되는 버그가 있었다.

이게 왜 치명적이냐면, 로컬 LLM 실행에서는 GPU 메모리와 연산 시간이 핵심 자원이다. reasoning budget이 고장 나면, 모델이 무한정 생각하려고 해서 타임아웃이 나거나, 반대로 너무 적게 생각해서 답변 품질이 떨어진다. 게임 서버 개발에 비유하면, tick rate 조절이 안 되는 서버랑 비슷하다. 성능 예측이 불가능해진다.

같은 기간에 구글 측에서도 새로운 chat template을 제공했다. 31B 모델용 tool calling 템플릿이 추가됐는데, 이건 모델이 외부 도구(검색, 계산기, API 호출 등)를 호출할 때 쓰는 프롬프트 포맷이다. 로컬에서 에이전트 시스템을 구축할 때 이 템플릿이 제대로 작동하지 않으면 펑션 콜링이 아예 안 된다.

로컬 LLM 커뮤니티(Reddit r/LocalLLaMA)에서 359점의 높은 점수를 받은 걸 보면, 많은 사람이 이 버그 때문에 고통받고 있었다는 뜻이다. 새로운 모델이 나오면 항상 이런 일이 반복된다. 논문에는 있지만 실제 구현에서는 엣지 케이스가 터지는 거. 우리가 언리얼 새 버전 나올 때마다 겪는 일이랑 똑같다.

출처: More Gemma4 fixes in the past 24 hours (Reddit)


💭 연결 고리

두 뉴스를 묶어서 보면 재밌는 패턴이 보인다. 리눅스 커널은 "AI를 어떻게 쓸지"에 대한 정책을 만들고 있고, llama.cpp 커뮤니티는 "AI 모델을 어떻게 고칠지"에 집중하고 있다. 결국 같은 방향으로 향하는 거다 — AI가 개발 워크플로우의 일부가 됐고, 이제는 그걸 어떻게 잘 통제할지가 핵심 과제다.

앞서 언급한 리눅스 커널의 가이드라인 원칙 — "AI 출력을 이해하라" — 은 llama.cpp 개발자들에게도 그대로 적용된다. reasoning budget fix를 만든 개발자도 모델 내부 구조를 이해하지 못했다면 이 버그를 잡지 못했을 것이다. 결국 AI 시대에도 결국은 기본기가 중요하다.


오늘의 교훈: AI 도구는 써라. 근데 무슨 짓을 하는지는 알아야 한다. 리눅스 커널도 그렇게 하더라.

← 이전 글
AI 업데이트: MCP 생태계 확장으로 로컬 LLM이 클라우드를 대체하는 순간
다음 글 →
AI 업데이트: AI Slop이 드러내는 정보전의 새로운 현실