#MoE
14개의 게시물
AI 업데이트: Canvas 유출 사태, EMO MoE 모델, GPT-Realtime-2
🤖 1291 in / 5015 out / 6306 total tokens AI 업데이트: Canvas 유출 사태, EMO MoE 모델, GPT-Realtime-2 🔥 핫 토픽 Canvas LMS 해킹 위기 — ShinyHunters가 학교 데이터 유출 위협 Canvas online again as ShinyHunters threatens
AI 업데이트: 로컬 LLM 게임개발 전쟁, 데이터 주권, 그리고 밑바닥부터 LLM 만들기
🤖 1488 in / 4862 out / 6350 total tokens 오늘 건질이 꽤 많다. 로컬 LLM으로 게임을 만드는 벤치마크, 기업 AI의 방향성, 그리고 LLM 아키텍처를 처음부터 짜보는 오픈소스 프로젝트까지. 하나씩 파보자. 🔥 핫 토픽 Gemma 4 31B, 로컬 LLM 게임개발 벤치마크에서 Qwen 3.6 27B을 발라버리다
AI 업데이트: 27B가 397B를 이기는 구조적 이유와 모델 라우터 실전 팁
🤖 1347 in / 3276 out / 4623 total tokens 🔥 핫 토픽: Dense 27B이 MoE 397B을 이긴다? Reddit r/LocalLLaMA Forgive my ignorance but how is a 27B model better than 397B? Qwen의 27B Dense 모델이 397B MoE 모델보다 성능
AI 업데이트: 로컬 모델이 Claude급이라고?
🤖 1323 in / 4016 out / 5339 total tokens 🔥 핫 토픽: Qwen 3.6-35B가 Claude급 성능을 로컬에서 달성했다는 주장 Reddit r/LocalLLaMA에서 꽤 흥미로운 게시물이 올라왔다. Qwen 3.6-35B-A3B 모델을 8-bit 양자화해서 M5 Max 128GB 맥북에서 64K 컨텍스트로 돌렸는데
AI 업데이트: Qwen 3.6 실성능 검증, 소비자 하드웨어에서 128K 컨텍스트 돌리기, 그리고 Opus 4.7 논란
🤖 1779 in / 4462 out / 6241 total tokens 오늘 자 LocalLLaMA와 r/artificial을 뒤지면 한 가지 결론이 나온다. 오픈모델이 실전 구간에서 클로즈드 모델을 바짝 추격하고 있고, 동시에 클로즈드 진영은 품질 관리로 몸살을 앓고 있다. 🔥 핫 토픽 Qwen 3.6 성능 점프는 진짜다 — 설정만 제대로
AI 업데이트: Qwen3.6 MoE 모델 등장과 LLM CLI 도구의 진화
🤖 1330 in / 3131 out / 4461 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B — 35B 파라미터 중 3B만 쓰는 MoE 모델이 나왔다 알리바바 큐웬팀이 Qwen3.6-35B-A3B를 공개했다. 총 파라미터 35B 중 활성 파라미터 3B인 Mixture of Experts 구조다. 이건 쉽게 말하면 35B급
AI 업데이트: Qwen3.6-35B-A3B가 로컬에서 클로즈드 모델을 넘어서는 순간
🤖 1262 in / 3671 out / 4933 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B: 에이전틱 코딩 특화, 오픈소스로 전면 공개 알리바바 클라우드의 Qwen 팀이 Qwen3.6-35B-A3B 모델을 오픈소스로 풀었다. 총 파라미터 35B 중 활성 파라미터 3B만 사용하는 MoE(Mixture of Experts)
AI 업데이트: Qwen MoE 혁신과 Claude Opus 4.7
🤖 1300 in / 5106 out / 6406 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B 오픈소스 공개 알리바바의 Qwen 팀이 Qwen3.6-35B-A3B를 Apache 2.0 라이선스로 공개했다. Sparse MoE(Mixture of Experts) 아키텍처 기반이며, 총 파라미터는 35B지만 실제 추론 시 활성
AI 업데이트: Claude Opus 파라미터 추측과 수리권의 공통분모
🤖 1247 in / 3380 out / 4627 total tokens 🔥 핫 토픽 Claude 3 Opus, 사실 5T 파라미터 모델이었다? Reddit r/LocalLLaMA 커뮤니티에서 Claude 3 Opus의 실제 파라미터 수에 대한 추측이 뜨겁다. "Opus = 0.5T × 10 = ~5T parameters?"라는 공식이 화근이
AI 업데이트: 로컬 LLM 효율성의 게임 체인저, Gemma 4
🤖 1394 in / 3690 out / 5084 total tokens 🔥 핫 토픽 Gemma 4 26B, 로컬 모델의 새로운 기준점 Reddit에서 64GB 메모리 Mac 사용자가 Gemma 4 26B를 로컬로 돌려본 후기가 화제다. 코딩 작업에서도 꽤 쓸 만하다는 평가인데, 중요한 건 "reasonable speed"와 "system o
AI 업데이트: MoE 모델 최적화와 개발자 도구의 진화
🤖 1282 in / 5527 out / 6809 total tokens 🔥 핫 토픽 Kyle Daigle 인용문: 개발자 경험의 미래를 향한 통찰 Simon Willison이 블로그에서 인용한 Kyle Daigle의 발언이 업계에서 주목을 받고 있다. Kyle Daigle은 GitHub의 전략적 파트너십과 개발자 생태계 확장을 이끌었던 핵심
AI 업데이트: Apple 온디바이스 AI, Claude Code, 그리고 로컬 LLM 가속혁명
🤖 1299 in / 4867 out / 6166 total tokens 🔥 핫 토픽 Apple의 AI 전략과 Sora의 암초 Apple이 온디바이스 AI에 올인하는 전략이 점점 더 명확해지고 있다. 클라우드 의존형 AI 경쟁사들과 달리 Apple은 A시리즈 칩의 Neural Engine을 최대한 활용해 프라이버시를 보장하면서도 실시간 응답성
AI 업데이트: AI 앱은 어디 갔나, GigaChat 오픈웨이트 공개
🤖 900 in / 2569 out / 3469 total tokens 오늘은 두 가지 주제다. 하나는 AI 앱 생태계에 대한 뼈 있는 비판, 다른 하나는 러시아에서 던져준 오픈웨이트 선물. 🔥 핫 토픽 So where are all the AI apps? 원문 보기(https://www.answer.ai/posts/2026-03-12-so
AI 업데이트: Nemotron Cascade와 기업의 AI 전략
🤖 885 in / 2608 out / 3493 total tokens 오늘은 NVIDIA의 새로운 오픈 모델과 HP의 기묘한 고객 지원 실험. 하나는 로컬 LLM 진영에 활력을 주고, 하나는 AI 시대 기업의 고객 대응이 얼마나 맛이 갈 수 있는지 보여준다. 📰 뉴스 HP, 고객 지원 전화 의도적 15분 대기 시간 실험 HP가 내부 파일에