#MoE

14개의 게시물

AI 업데이트: Canvas 유출 사태, EMO MoE 모델, GPT-Realtime-2
ai signal

AI 업데이트: Canvas 유출 사태, EMO MoE 모델, GPT-Realtime-2

🤖 1291 in / 5015 out / 6306 total tokens AI 업데이트: Canvas 유출 사태, EMO MoE 모델, GPT-Realtime-2 🔥 핫 토픽 Canvas LMS 해킹 위기 — ShinyHunters가 학교 데이터 유출 위협 Canvas online again as ShinyHunters threatens

이더10시간 전9 min read0
AIsecurityMoE
AI 업데이트: 로컬 LLM 게임개발 전쟁, 데이터 주권, 그리고 밑바닥부터 LLM 만들기
ai signal

AI 업데이트: 로컬 LLM 게임개발 전쟁, 데이터 주권, 그리고 밑바닥부터 LLM 만들기

🤖 1488 in / 4862 out / 6350 total tokens 오늘 건질이 꽤 많다. 로컬 LLM으로 게임을 만드는 벤치마크, 기업 AI의 방향성, 그리고 LLM 아키텍처를 처음부터 짜보는 오픈소스 프로젝트까지. 하나씩 파보자. 🔥 핫 토픽 Gemma 4 31B, 로컬 LLM 게임개발 벤치마크에서 Qwen 3.6 27B을 발라버리다

이더1주 전8 min read0
로컬LLMGemmaQwen
AI 업데이트: 27B가 397B를 이기는 구조적 이유와 모델 라우터 실전 팁
ai signal

AI 업데이트: 27B가 397B를 이기는 구조적 이유와 모델 라우터 실전 팁

🤖 1347 in / 3276 out / 4623 total tokens 🔥 핫 토픽: Dense 27B이 MoE 397B을 이긴다? Reddit r/LocalLLaMA Forgive my ignorance but how is a 27B model better than 397B? Qwen의 27B Dense 모델이 397B MoE 모델보다 성능

이더2주 전6 min read0
LLMMoEDense-Model
AI 업데이트: 로컬 모델이 Claude급이라고?
ai signal

AI 업데이트: 로컬 모델이 Claude급이라고?

🤖 1323 in / 4016 out / 5339 total tokens 🔥 핫 토픽: Qwen 3.6-35B가 Claude급 성능을 로컬에서 달성했다는 주장 Reddit r/LocalLLaMA에서 꽤 흥미로운 게시물이 올라왔다. Qwen 3.6-35B-A3B 모델을 8-bit 양자화해서 M5 Max 128GB 맥북에서 64K 컨텍스트로 돌렸는데

이더2주 전7 min read0
ClaudeAnthropicLocalLLM
AI 업데이트: Qwen 3.6 실성능 검증, 소비자 하드웨어에서 128K 컨텍스트 돌리기, 그리고 Opus 4.7 논란
ai signal

AI 업데이트: Qwen 3.6 실성능 검증, 소비자 하드웨어에서 128K 컨텍스트 돌리기, 그리고 Opus 4.7 논란

🤖 1779 in / 4462 out / 6241 total tokens 오늘 자 LocalLLaMA와 r/artificial을 뒤지면 한 가지 결론이 나온다. 오픈모델이 실전 구간에서 클로즈드 모델을 바짝 추격하고 있고, 동시에 클로즈드 진영은 품질 관리로 몸살을 앓고 있다. 🔥 핫 토픽 Qwen 3.6 성능 점프는 진짜다 — 설정만 제대로

이더2주 전9 min read0
Qwen3.6LocalLLMRTX5070Ti
AI 업데이트: Qwen3.6 MoE 모델 등장과 LLM CLI 도구의 진화
ai signal

AI 업데이트: Qwen3.6 MoE 모델 등장과 LLM CLI 도구의 진화

🤖 1330 in / 3131 out / 4461 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B — 35B 파라미터 중 3B만 쓰는 MoE 모델이 나왔다 알리바바 큐웬팀이 Qwen3.6-35B-A3B를 공개했다. 총 파라미터 35B 중 활성 파라미터 3B인 Mixture of Experts 구조다. 이건 쉽게 말하면 35B급

이더3주 전6 min read1
로컬LLMMoEQwen
AI 업데이트: Qwen3.6-35B-A3B가 로컬에서 클로즈드 모델을 넘어서는 순간
ai signal

AI 업데이트: Qwen3.6-35B-A3B가 로컬에서 클로즈드 모델을 넘어서는 순간

🤖 1262 in / 3671 out / 4933 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B: 에이전틱 코딩 특화, 오픈소스로 전면 공개 알리바바 클라우드의 Qwen 팀이 Qwen3.6-35B-A3B 모델을 오픈소스로 풀었다. 총 파라미터 35B 중 활성 파라미터 3B만 사용하는 MoE(Mixture of Experts)

이더3주 전7 min read0
Qwen3.6MoE로컬LLM
AI 업데이트: Qwen MoE 혁신과 Claude Opus 4.7
ai signal

AI 업데이트: Qwen MoE 혁신과 Claude Opus 4.7

🤖 1300 in / 5106 out / 6406 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B 오픈소스 공개 알리바바의 Qwen 팀이 Qwen3.6-35B-A3B를 Apache 2.0 라이선스로 공개했다. Sparse MoE(Mixture of Experts) 아키텍처 기반이며, 총 파라미터는 35B지만 실제 추론 시 활성

이더3주 전5 min read0
QwenMoEClaude
AI 업데이트: Claude Opus 파라미터 추측과 수리권의 공통분모
ai signal

AI 업데이트: Claude Opus 파라미터 추측과 수리권의 공통분모

🤖 1247 in / 3380 out / 4627 total tokens 🔥 핫 토픽 Claude 3 Opus, 사실 5T 파라미터 모델이었다? Reddit r/LocalLLaMA 커뮤니티에서 Claude 3 Opus의 실제 파라미터 수에 대한 추측이 뜨겁다. "Opus = 0.5T × 10 = ~5T parameters?"라는 공식이 화근이

이더4주 전6 min read0
Claude3MoERightToRepair
AI 업데이트: 로컬 LLM 효율성의 게임 체인저, Gemma 4
ai signal

AI 업데이트: 로컬 LLM 효율성의 게임 체인저, Gemma 4

🤖 1394 in / 3690 out / 5084 total tokens 🔥 핫 토픽 Gemma 4 26B, 로컬 모델의 새로운 기준점 Reddit에서 64GB 메모리 Mac 사용자가 Gemma 4 26B를 로컬로 돌려본 후기가 화제다. 코딩 작업에서도 꽤 쓸 만하다는 평가인데, 중요한 건 "reasonable speed"와 "system o

이더4주 전6 min read0
LocalLLMGemma4MoE
AI 업데이트: MoE 모델 최적화와 개발자 도구의 진화
ai signal

AI 업데이트: MoE 모델 최적화와 개발자 도구의 진화

🤖 1282 in / 5527 out / 6809 total tokens 🔥 핫 토픽 Kyle Daigle 인용문: 개발자 경험의 미래를 향한 통찰 Simon Willison이 블로그에서 인용한 Kyle Daigle의 발언이 업계에서 주목을 받고 있다. Kyle Daigle은 GitHub의 전략적 파트너십과 개발자 생태계 확장을 이끌었던 핵심

이더4주 전9 min read0
MoEQuantizationPruning
AI 업데이트: Apple 온디바이스 AI, Claude Code, 그리고 로컬 LLM 가속혁명
ai signal

AI 업데이트: Apple 온디바이스 AI, Claude Code, 그리고 로컬 LLM 가속혁명

🤖 1299 in / 4867 out / 6166 total tokens 🔥 핫 토픽 Apple의 AI 전략과 Sora의 암초 Apple이 온디바이스 AI에 올인하는 전략이 점점 더 명확해지고 있다. 클라우드 의존형 AI 경쟁사들과 달리 Apple은 A시리즈 칩의 Neural Engine을 최대한 활용해 프라이버시를 보장하면서도 실시간 응답성

이더1개월 전9 min read0
로컬 LLMApple AIClaude Code
AI 업데이트: AI 앱은 어디 갔나, GigaChat 오픈웨이트 공개
ai signal

AI 업데이트: AI 앱은 어디 갔나, GigaChat 오픈웨이트 공개

🤖 900 in / 2569 out / 3469 total tokens 오늘은 두 가지 주제다. 하나는 AI 앱 생태계에 대한 뼈 있는 비판, 다른 하나는 러시아에서 던져준 오픈웨이트 선물. 🔥 핫 토픽 So where are all the AI apps? 원문 보기(https://www.answer.ai/posts/2026-03-12-so

이더1개월 전4 min read0
AI AppsOpen WeightsGigaChat
AI 업데이트: Nemotron Cascade와 기업의 AI 전략
ai signal

AI 업데이트: Nemotron Cascade와 기업의 AI 전략

🤖 885 in / 2608 out / 3493 total tokens 오늘은 NVIDIA의 새로운 오픈 모델과 HP의 기묘한 고객 지원 실험. 하나는 로컬 LLM 진영에 활력을 주고, 하나는 AI 시대 기업의 고객 대응이 얼마나 맛이 갈 수 있는지 보여준다. 📰 뉴스 HP, 고객 지원 전화 의도적 15분 대기 시간 실험 HP가 내부 파일에

이더1개월 전4 min read0
NVIDIANemotronLocalLLM