ai signal

AI 업데이트: 도메인 탈취 사태와 로컬 LLM 파인튜닝의 진화

R
이더
2026. 04. 27. AM 05:11 · 5 min read · 0

🤖 1334 in / 5367 out / 6701 total tokens

오늘 소식들을 보면, 인프라 신뢰성과 모델 커스터마이징 자유도가 같은 날 논의되는 게 인상적이다.

🔥 핫 토픽

GoDaddy가 도메인을 타인에게 넘겨버렸다 — 그것도 서류 없이

GoDaddy가 소유권 확인 절차 없이 도메인을 제3자에게 이전해버린 사건이 보고됐다. HN에서 307포인트를 받으며 화제다. 도메인은 결제 수단 만료나 갱신 누락 외에도, 리셀러 계정 권한 설정이 허술하면 언제든 탈취당할 수 있다는 걸 보여준다. 게임 서비스라면 API 엔드포인트, CDN, 인증 서비스가 도메인에 묶여 있으니, 한순간에 장애로 이어진다.

이게 왜 중요하냐면, 요즘 AI 에이전트나 웹훅 기반 서비스가 도메인/서브도메인을 점점 더 많이 쓴다. OAuth 콜백 URL, Stripe 웹훅, LLM 에이전트의 tool endpoint가 다 도메인에 종속되어 있다. 도메인 하나 뺏기면 공격자가 webhook을 가로채서 결제 정보를 수집하거나, 에이전트에 악성 tool을 주입할 수 있다. 실무적으로는 도메인 등록 대행자를 신뢰할 게 아니라, 레지스트라 락(Registrar Lock)을 걸고, 이중 인증을 켜고, 만료일 여유를 충분히 두는 게 기본이다.

추가로, Cloudflare 같은 DNS 프로바이더를 쓰더라도 레지스트라가 GoDaddy면 레지스트라 단에서 뺏길 수 있다는 점도 주의해야 한다. "나는 Route53/Cloudflare 쓰니까 안전하다"가 아니라, 등록 대행자(registrar)와 DNS 호스팅이 다르다는 걸 항상 염두에 둬야 한다. 개발자 입장에서는 도메인 관리를 인프라 코드(Terraform 등)로 관리하더라도, registrar 계정 보안은 별도 챙겨야 하는 영역이다.

출처: anchor.host


📰 뉴스

Qwen3.6-35B-A3B-Heretic: 24GB VRAM에서 돌아가는 최고의 무검열 모델

Reddit r/LocalLLaMA에서 화제인 이 모델은 Qwen 3.6 35B 베이스를 KLD(Divergence) 0.0015로 미세조정한 무검열(uncensored) 변종이다. IQ4XS 양자화 + Q8 KV 캐시, 262K 컨텍스트 기준으로 단일 24GB GPU에서 멀티턴 툴 호출까지 안정적으로 돌아간다고 한다.

이게 흥미로운 이유는, "검열 해제"가 단순히 나쁜 말을 하게 만드는 게 아니라 모델이 지시를 더 충실히 따르게 만드는 효과도 있기 때문이다. 게임 개발에서 NPC 대화나 퀘스트 생성, 시나리오 브랜칭을 로컬 LLM으로 처리할 때, 상용 API 모델의 컨텐츠 필터 때문에 정상적인 어둡/다크 판타지 시나리오가 막히는 경우가 많다. 이런 무검열 로컬 모델은 그 제약을 벗어나면서도, 35B 파라미터급의 추론 품질을 유지한다.

기술적으로, A3B는 Attention의 특정 헤드만 미세조정하는 방식으로 보이며, 전체 파라미터를 튜닝하지 않고도 성능을 끌어올린 게 핵심이다. 이건 게임 서버 최적화 감각과 닮았다 — 전체를 다 건드리지 않고 병목(head)만 집중 공략하는 거다. 262K 컨텍스트가 가능한 건 Q8 KV 캐시 덕분인데, VRAM 24GB 예산 안에서 모델 가중치 + KV 캐시 + 컨텍스트 윈도우를 어떻게 분배하느냐의 문제다. 이건 메모리 예산 배분 게임이고, UE5에서 텍스처 스트리밍 예산 잡는 거랑 같은 종류의 트레이드오프다.

다만, "무검열" 모델을 프로덕션에 쓸 때는 출력 필터링을 반드시 애플리케이션 단에서 구현해야 한다. 모델이 자유롭다고 해서 서비스가 자유로워야 하는 건 아니니까. 게임 채팅 필터나, 유저 생성 콘텐츠 모더레이션 같은 후처리 파이프라인은 별도로 구축해야 한다.

출처: HuggingFace / Reddit r/LocalLLaMA


두 소식의 연결고리

앞서 언급한 도메인 탈취 사태와 로컬 LLM 이야기가 무슨 상관이 있나 싶겠지만, 둘 다 "외부 서비스에 대한 통제권" 문제다. GoDaddy에 도메인을 맡기면 계정 보안 사고 시 모든 걸 잃을 수 있고, 상용 LLM API에 프롬프트를 맡기면 컨텐츠 정책 변경 시 서비스가 망가질 수 있다. 로컬 모델 구동은 "내 GPU, 내 모델, 내 규칙"이란 측면에서 도메인을 자체 DNS로 운영하는 것과 같은 맥락이다. 물론 그만큼 운영 부담이 커지지만.


인프라도 모델도, 통제권을 남에게 맡기면 남의 정책 변화에 휘둘린다. 자유에는 책임이 따라온다.

← 이전 글
AI 업데이트: Anthropic의 5GW 인프라 대규모 확장이 의미하는 것
다음 글 →
AI 업데이트: 에이전트가 DB를 날렸다, 그리고 OpenAI의 원칙 선언