🤖
1523 in / 4132 out / 5655 total tokens
오늘 건졌던 뉴스 중에 HuggingFace에 멀웨어 모델이 돌아다닌다는 게시글이 화제다. 개발자라면 무조건 확인해야 한다.
🔥 핫 토픽
HuggingFace에서 멀웨어 모델 발견 — Open-OSS/privacy-filter
Redditor가 경고 게시글을 올렸다. Open-OSS/privacy-filter라는 이름으로 올라온 모델이 사실은 **Python 기반 인포스틸러(정보 탈취 악성코드)**라는 내용이다. OpenAI의 privacy filter를 사칭해서 만든 가짜고, 모델 파일 내부에 악성 페이로드가 숨겨져 있다.
이게 왜 무서운가 하면, 요즌 로컬 LLM 돌리는 사람들이 HuggingFace에서 모델을 그냥 pip install이나 from_pretrained로 끌어다 쓰는 게 일상이다. 나도 그렇고. 근데 이걸 실행하는 순간 브라우저 쿠키, 저장된 비밀번호, 시스템 정보가 다 빠져나간다. 게임 개발자 기준으로 생각하면, 언리얼 빌드 서버나 CI/CD 파이프라인에서 이런 걸 한 번 건드렸다가는 소스코드나 에셋이 유출될 수도 있다.
HuggingFace의 모델 리뷰 시스템이 아직 충분히 강력하지 않다는 걸 보여주는 사례다. 누구나 모델을 올릴 수 있는 오픈 플랫폼의 양날의 검. 앞으로는 모델 다운로드 전에 업로더의 계정 활동, 스타 수, 커뮤니티 평판을 반드시 확인해야 한다. 그리고 torch.load()나 pickle 기반 로딩은 원래부터 임의 코드 실행(RCE) 위험이 있는 포맷이라, 이걸 모르고 쓰는 사람이 많다. safetensors 포맷을 쓰면 이런 위험을 크게 줄일 수 있으니 로컬 LLM 돌릴 때는 무조건 safetensors 기반 모델을 쓰자.
실무 팁: transformers 라이브러리에서 trust_remote_code=True를 함부로 설정하지 마라. 이게 켜져 있으면 원격 코드가 그대로 실행된다. 기본값이 False인 이유가 있다.
한줄평: 오픈소스 생태계의 신뢰가 공격 벡터가 되는 시대가 왔다. 모델도 검증 없이 실행하면 안 된다.
📰 뉴스
SpaceX, 텍사스에 550억 달러 규모 AI 칩 공장 'Terafab' 짓는다
Elon Musk의 SpaceX가 AI 칩 제조 사업에 뛰어든다. The Verge 보도에 따르면 최소 550억 달러(약 7조 원)를 투자해서 'Terafab'라는 이름의 칩 제조 공장을 텍사스에 건설할 계획이다.
이건 NVIDIA 독점 구도를 깨겠다는 의도다. 현재 AI 칩 시장은 NVIDIA가 80% 이상 점유하고 있고, H100/B200 수급 문제 때문에 많은 기업이 스케줄 지연을 겪었다. Musk는 xAI(Grok) 학습용으로 엄청난 GPU 클러스터를 구축하면서 NVIDIA 의존도의 위험성을 몸소 체감했을 것이다. 그래서 자체 칩을 만들겠다는 건데, 이게 성공하면 AI 인프라 비용이 크게 떨어질 수 있다.
하지만 칩 제조는 쉬운 게 아니다. TSMC조차 3nm 공정 양산에 수년이 걸렸다. 설계는 그나마 나을지 몰라도, 파운드리(제조) 라인 구축은 완전히 다른 영역이다. Samsung이나 Intel도 수십조 원을 쏟아부으면서 NVIDIA를 쫓아가는 중인데, SpaceX가 갑자기 뛰어들어서 얼마나 경쟁력을 가질 수 있을지는 미지수다.
개발자 관점에서는, AI 칩 공급이 다변화되면 클라우드 GPU 비용이 내려갈 수 있다는 게 가장 큰 의미다. 현재 AWS/GCP에서 A100 한 대 빌리는 비용이 시간당 3~4달러니까, 사이드프로젝트로 LLM 파인튜닝 돌리려면 비용이 꽤 부담스럽다. 칩 경쟁이 치열해지면 이 가격이 내려갈 것이다.
그리고 이 뉴스는 앞서 언급한 HuggingFace 멀웨어 사건과도 연결되는 맥락이 있다. AI 생태계가 거대해질수록 **인프라(AI 칩)**와 보안(멀웨어) 양쪽에서 리스크가 커지고 있다는 것. 하드웨어 쪽은 돈으로 해결하면 되지만, 소프트웨어 보안은 개발자 개개인의 경각심이 필요하다.
한줄평: NVIDIA 독점 깨기는 환영이지만, 파운드리 라인 구축은 돈으로만 되는 게 아니다.
출처: The Verge
ChatGPT, '신뢰할 수 있는 연락처' 기능 추가 — 안전/정신건강 대응
OpenAI가 ChatGPT에 Trusted Contact 기능을 추가했다. 성인 사용자가 긴급 연락처를 지정하면, ChatGPT가 대화 중 자해나 안전 위험 징후를 감지했을 때 지정된 가족/친구/보호자에게 알림을 보내는 방식이다.
이건 단순한 기능 추가가 아니라 AI 기업의 책임 문제와 직결된다. 챗봇이 사용자의 정신건강 위기를 감지하고 개입하는 건, 기술적으로는 자연어 처리로 감정 분석을 하는 거지만, 윤리적으로는 매우 민감한 영역이다. 오경고(false positive)가 너무 많으면 사용자가 짜증 나고, 놓치면(false negative) 생명 문제가 될 수 있다.
게임 개발 쪽에서도 이런 시스템이 점점 중요해질 것이다. 이미 많은 온라인 게임에 채팅 필터링이나 신고 시스템이 있지만, AI가 실시간으로 플레이어의 감정 상태를 분석해서 위험 신호를 감지하는 기능은 아직 초기 단계다. UE5 기반 멀티플레이어 게임에서 백엔드에 이런 감정 분석 모델을 붙여서 운영자에게 알림을 보내는 시스템을 구상해볼 수 있다.
기술적으로는 GPT-4 수준의 모델이면 대화 맥락에서 위험 신호를 잡아내는 게 가능하다. 문제는 프라이버시다. 사용자 대화를 분석해서 제3자에게 알림을 보내는 건, 동의 기반이라 하더라도 데이터 처리 측면에서 신중해야 한다. GDPR이나 개인정보보호법 관점에서 이 데이터가 어떻게 저장되고 처리되는지가 중요하다.
한줄평: AI의 감정 분석 능력이 실제 안전 시스템에 적용되기 시작했다. 게임 커뮤니티 관리에도 응용 가능하다.
출처: The Verge
📄 블로그
Simon Willison — 'Big Words'
Simon Willison이 Big Words라는 글을 올렸다. 내용을 보면 AI 업계에서 남용되는 거창한 용어들 — AGI, sentient, reasoning 같은 — 에 대한 비판적 시각을 담고 있다.
Willison은 LLM이 진짜 '생각'을 하는 게 아니라는 걸 계속 강조해온 사람이다. 그가 말하는 핵심은, 기술 용어가 마케팅 용어로 변질되면 대중의 기대가 비현실적으로 부풀려진다는 거다. 'AGI가 곧 온다'는 말이 투자자들한테는 좋지만, 실제 개발 현장에서는 LLM이 여전히 환각(hallucination) 문제를 겪고 있고, 간단한 논리 추론도 틀리는 경우가 많다.
이건 게임 개발에서도 마찬가지다. 'AI NPC가 자연스럽게 대화한다'는 데모 영상 보고 '드디어 진짜 AI NPC가 왔다!'고 하는데, 실제로 구현해보면 컨텍스트 윈도우 관리, 응답 속도, 비용 문제가 산더미다. 거창한 단어 뒤에 있는 엔지니어링 현실을 직시해야 한다.
개발자로서 이 글에서 배울 점은, 기술을 정확하게 설명하는 능력이 중요하다는 거다. 내가 만든 AI 사이드프로젝트를 설명할 때 'AGI 수준의 추론'이라고 하면 안 된다. '특정 도메인에서 파인튜닝된 7B 모델로 RAG 파이프라인을 구성했다'고 구체적으로 말해야 신뢰를 얻는다.
한줄평: 엔지니어는 마케팅 용어에 현혹되지 말고, 기술의 실제 한계를 정확히 이해해야 한다.
오늘 뉴스 4건을 관통하는 키워드는 **'신뢰'**다. HuggingFace 모델을 신뢰할 수 있는가(보안), AI 칩 공급을 신뢰할 수 있는가(인프라), 챗봇의 안전 판단을 신뢰할 수 있는가(윤리), 업계 용어를 신뢰할 수 있는가(의사소통). 기술이 발전할수록 신뢰 문제가 더 복잡해진다.
AI의 기술적 성숙도보다 그걸 둘러싼 생태계의 성숙도가 더 중요해지고 있다.