#게임개발
28개의 게시물
AI 업데이트: 로컬 LLM 실용화와 보안 패러다임 충돌
🤖 1312 in / 3315 out / 4627 total tokens 🔥 핫 토픽 12GB VRAM으로 128K 컨텍스트, 80 tok/sec 달성 — 로컬 LLM의 게임 체인저 Reddit r/LocalLLaMA에서 화제를 모은 이 포스트는 Qwen3.6 35B A3B 모델을 llama.cpp 최신 빌드와 MTP(Multi-Token P
AI 업데이트: ChatGPT 5.5 Pro의 실전 성능과 40년 전 예언된 LLM의 본질
🤖 1300 in / 5488 out / 6788 total tokens 🔥 핫 토픽 ChatGPT 5.5 Pro, 수학자의 실험장에서 벌어진 일 원문: A recent experience with ChatGPT 5.5 Pro(https://gowers.wordpress.com/2026/05/08/a-recent-experience-with-
AI 업데이트: Mozilla·PlayStation·Microsoft 삼파전 속 Claude의 위치
🤖 1425 in / 4402 out / 5827 total tokens 🔥 핫 토픽 Mozilla, Claude로 Firefox 보안 강화하다 원문: Hardening Firefox with Claude Mythos Preview(https://hacks.mozilla.org/2026/05/behind-the-scenes-hardening-
AI 업데이트: AMD의 역습과 개발자 도구의 진화
🤖 1238 in / 3824 out / 5062 total tokens 🔥 핫 토픽 ZAYA1-8B: AMD에서 훈련한 8B 모델이 의미하는 것 Zyphra가 발표한 ZAYA1-8B는 NVIDIA GPU가 아닌 AMD GPU로 훈련된 8B 파라미터 모델이다. Reddit r/LocalLLaMA에서 358점의 높은 점수를 받은 이유는 단순하다
이미 까발려진 col은 고민할 필요 없다 — pre-choice 생략 + fastReturn 가속
🤖 1819 in / 1446 out / 3265 total tokens I added a 0.92s pre-choice pause per column for tension, but watching a sole survivor sit through that on every column coming back was just painful. So I cu
왕복 생존 룰 전체 흐름을 IIFE 하나에 때려 넣었다
🤖 1621 in / 1973 out / 3594 total tokens 왕복(Outbound→Return) 생존 룰의 전체 스테이지 머신을 IIFE로 묶었다. 기존엔 편도만 있었는데, 다리 건너서 생존자만 다시 돌아오는 왕복 모드가 필요했다. stage 필드를 'outbound' | 'reset-fx' | 'return-intro' | 'return
AI 업데이트: Granite 4.1 3B의 SVG 생성 능력과 Gruber의 AI 비판
🤖 1243 in / 3223 out / 4466 total tokens 🔥 핫 토픽 John Gruber가 짚어낸 AI 과대광고의 맹점 Simon Willison이 John Gruber의 글을 인용하며 AI 업계의 현재 상태에 대해 날카로운 코멘트를 던졌다. Gruber는 오랫동안 Apple 생태계와 기술 트렌드에 대해 예리한 분석을 제공해
AI 업데이트: 로컬 LLM 게임개발 전쟁, 데이터 주권, 그리고 밑바닥부터 LLM 만들기
🤖 1488 in / 4862 out / 6350 total tokens 오늘 건질이 꽤 많다. 로컬 LLM으로 게임을 만드는 벤치마크, 기업 AI의 방향성, 그리고 LLM 아키텍처를 처음부터 짜보는 오픈소스 프로젝트까지. 하나씩 파보자. 🔥 핫 토픽 Gemma 4 31B, 로컬 LLM 게임개발 벤치마크에서 Qwen 3.6 27B을 발라버리다
AI 업데이트: AMD 로컬 AI 하드웨어와 Codex CLI의 진화
🤖 1288 in / 3008 out / 4296 total tokens AI 업데이트: AMD 로컬 AI 하드웨어와 Codex CLI의 진화 🔥 핫 토픽 AMD, 인하우스 Ryzen AI 개발 박스 6월 출시 예고 원문: Reddit - AMD in-house ryzen 395 box coming in June(https://i.redd
AI 업데이트: OpenAI 소송전 본격 시작, 그리고 소형 모델의 역설적 실험
🤖 1325 in / 3986 out / 5311 total tokens 이번 주 AI 업계는 법정 다툼과 기술 실험 양쪽에서 흥미로운 움직임이 있었다. 하나는 AI 업계의 판도를 바꿀 수 있는 Musk vs Altman 소송이 본격적으로 시작된 것이고, 다른 하나는 Simon Willison이 1930년대 데이터로 학습된 13B 파라미터 모델을 소개
AI 업데이트: 데이터 독살, 빈티지 LLM, 의료 영상 AI
🤖 1313 in / 3910 out / 5223 total tokens 🔥 핫 토픽 코미디언이 제안한 AI 훈련 데이터 독살 전략 "AI가 내 목소리를 복사하는 걸 막는 최선의 방법은 '딸기망고지게튀감자튀김'이라고 외치는 거다." Reddit r/artificial에서 화제가 된 이 게시물은 코미디언이 AI 학습 데이터를 오염시키는(poi
AI 업데이트: VibeVoice 공개와 B2B 영업 AI 벤치마크의 등장
🤖 1263 in / 2834 out / 4097 total tokens 🔥 핫 토픽 microsoft/VibeVoice — 음성 AI의 새로운 패러다임 Microsoft가 VibeVoice를 공개했다. 이름에서 바로 느껴지듯, 이건 음성(Voice)에 "분위기"나 "감정"을 입히는 도구다. 단순한 TTS(Text-to-Speech)가 아니라
AI 업데이트: 1비트 픽셀 아트의 재발견과 실시간 챗봇 아키텍처
🤖 1299 in / 3555 out / 4854 total tokens 오늘은 인상적인 두 가지 프로젝트를 살펴본다. 하나는 고전 미술을 1비트 픽셀 아트로 재해석한 실험이고, 다른 하나는 Meta의 BlenderBot을 활용한 프로덕션급 챗봇 파이프라인이다. 둘 다 '제약 속에서 어떻게 표현력을 극대화할 것인가'라는 공통된 질문을 던진다. 🔥
AI 업데이트: DeepSeek V4 가격 파괴와 개발자 도구의 진화
🤖 1234 in / 3980 out / 5214 total tokens 🔥 핫 토픽 DeepSeek V4 - 프론티어 모델과 거의 동등한 성능, 가격은 극소수 DeepSeek가 V4를 발표했다. 성능은 GPT-4나 Claude 수준의 프론티어 모델과 거의 차이가 없는데, 가격은 그 일부분이다. 이건 단순히 "또 하나의 모델 나왔네" 수준이
AI 업데이트: Qwen3.6-27B가 던지는 경량 모델의 도전장, Claude 입장에서 바라보기
🤖 1227 in / 3863 out / 5090 total tokens 🔥 핫 토픽 Qwen3.6-27B: 27B 파라미터로 Flagship급 코딩 성능 달성 알리바바의 Qwen 팀이 27B 파라미터 dense 모델로 프론티어급 코딩 성능을 찍었다. MoE(Mixture of Experts) 구조도 아니고, 엄청난 파라미터 수도 아니다. 단
Claude Opus 4.7이 나왔다 — 게임 프로그래머가 본 실전 변화
더 많은 글은 radarlog.kr(https://radarlog.kr)에서. --- 2026년 4월 16일, Anthropic이 Claude Opus 4.7을 일반 공개했다. Opus 4.6이 2월에 나왔으니 딱 두 달 만이다. 2개월 사이클이 굳어지는 분위기다. 게임 프로그래머 관점에서 이번 릴리스가 왜 중요한가. Claude Code를 UE5
AI 업데이트: 로컬 코딩 모델의 역습, AI 과열 주의보
🤖 1527 in / 5639 out / 7166 total tokens 오늘은 로컬 LLM 코딩 성능이 갈수록 무서워지는 시점에서, 빅테크의 디자인 도구 실험과 AI 과열 양상까지 폭넓게 짚어본다. 게임 서버 아키텍처 최적화하다가 틈틈이 로컬 모델 돌려보는 입장에서, 이번 주 흐름이 꽤 흥미롭다. --- 🔥 핫 토픽 Qwen3.6 + Op
AI 업데이트: Palantir 윤리 논란, Claude Design, 그리고 Qwen3.6의 게임 개발
🤖 1477 in / 4536 out / 6013 total tokens AI 업데이트: Palantir 윤리 논란, Claude Design, 그리고 Qwen3.6의 게임 개발 오늘자 AI 뉴스를 살펴보면, 기술의 발전과 윤리의 충돌이 동시에 일어나고 있다. Palantir의 AI가 실제 전장에서 사용되면서 벌어지는 논란, Anthropic의 C
AI 업데이트: Qwen MoE 혁신과 Claude Opus 4.7
🤖 1300 in / 5106 out / 6406 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B 오픈소스 공개 알리바바의 Qwen 팀이 Qwen3.6-35B-A3B를 Apache 2.0 라이선스로 공개했다. Sparse MoE(Mixture of Experts) 아키텍처 기반이며, 총 파라미터는 35B지만 실제 추론 시 활성
AI 업데이트: 오픈모델 탈옥 프롬프트, Gemini TTS 차세대 음성 생성
🤖 1374 in / 4002 out / 5376 total tokens 🔥 핫 토픽 Gemma 4 Jailbreak System Prompt — 오픈소스 모델의 안전장치를 해제하는 프롬프트 기법 Reddit r/LocalLLaMA에서 화제를 모은 게시글 하나가 오픈소스 LLM 커뮤니티에 큰 반향을 일으켰다. 핵심은 간단하다. 시스템 프롬프트
AI 업데이트: 로컬 LLM 양자화 실전 비교, 프라이버시 UX 설계, 브라우저 AI 에이전트
🤖 1401 in / 4549 out / 5950 total tokens 🔥 핫 토픽 Qwen3.5-9B 양자화(KLD) 벤치마크가 로컬 LLM 개발자에게 시사하는 바 Reddit r/LocalLLaMA에서 Qwen3.5-9B 모델의 다양한 GGUF 양자화 변환 결과를 KLD(Kullback-Leibler Divergence) 기준으로 비교한
AI 업데이트: 로컬 LLM 전쟁과 오픈소스 생태계의 양극화
🤖 1430 in / 4929 out / 6359 total tokens 🔥 핫 토픽 Gemma 4 31B vs Qwen 3.5 27B: 장문 컨텍스트 워크플로우 실전 비교 로컬 LLM 커뮤니티에서 가장 뜨거운 주제 중 하나가 바로 '실사용 환경에서 어떤 모델이 실제로 유리한가'다. 이번 Reddit 게시물은 i7 12700K, RTX 309
경마 게임 화면 하단에 AdSense 광고 슬롯 추가
🤖 1330 in / 1460 out / 2790 total tokens 멀티플레이어 경마 게임 화면 하단에 광고 영역을 추가했다. 기존에는 게임 진행 중에 광고가 노출될 공간이 없어서 수익 기회를 놓치고 있었다. 변경은 단순하다. 채팅 영역 아래에 ad-container ad-game 클래스를 가진 div를 넣고, 그 안에 AdSense ins 태
AI 업데이트: 오픈소스 철학과 기술 신뢰성에 대한 성찰
🤖 1344 in / 5634 out / 6978 total tokens 🔥 핫 토픽 Good ideas do not need lots of lies to gain public acceptance 2008년 Daniel Davies가 쓴 이 글이 해커뉴스에서 다시 화제다. 핵심은 간단하다. 정말 좋은 아이디어는 과장이나 거짓말 없이도 스스로
AI 업데이트: 로컬 LLM 서버와 에이전트 전쟁
🤖 1276 in / 3949 out / 5225 total tokens 🔥 핫 토픽 Lemonade by AMD: 오픈소스 로컬 LLM 서버의 등장 Lemonade Server(https://lemonade-server.ai) AMD가 로컬 LLM 서버 "Lemonade"를 오픈소스로 공개했다. GPU와 NPU를 모두 활용해서 로컬에서 L
AI 업데이트: Datasette-LLM 생태계 확장과 로컬 LLM 활용의 새로운 지평
🤖 1286 in / 5466 out / 6752 total tokens Simon Willison이 공개한 datasette-llm 0.1a6과 datasette-enrichments-llm 0.2a1 업데이트는 단순한 버전 업그레이드가 아니다. SQLite 기반 데이터 파이프라인에 LLM을 통합하려는 시도가 점점 더 정교해지고 있음을 보여준다. 특
AI 업데이트: Datasette와 LLM의 결합이 주는 시사점
🤖 1253 in / 5078 out / 6331 total tokens Simon Willison이 datasette-llm 0.1a6과 datasette-enrichments-llm 0.2a1을 연이어 공개했다. 겉보기엔 그저 또 다른 LLM 래퍼 라이브러리 같아 보이지만, 데이터 파이프라인 관점에서 보면 꽤 의미 있는 움직임이다. 게임 개발자가
AI 업데이트: Apple 온디바이스 AI, Claude Code, 그리고 로컬 LLM 가속혁명
🤖 1299 in / 4867 out / 6166 total tokens 🔥 핫 토픽 Apple의 AI 전략과 Sora의 암초 Apple이 온디바이스 AI에 올인하는 전략이 점점 더 명확해지고 있다. 클라우드 의존형 AI 경쟁사들과 달리 Apple은 A시리즈 칩의 Neural Engine을 최대한 활용해 프라이버시를 보장하면서도 실시간 응답성