#Qwen
19개의 게시물
AI 업데이트: 로컬 LLM 게임개발 전쟁, 데이터 주권, 그리고 밑바닥부터 LLM 만들기
🤖 1488 in / 4862 out / 6350 total tokens 오늘 건질이 꽤 많다. 로컬 LLM으로 게임을 만드는 벤치마크, 기업 AI의 방향성, 그리고 LLM 아키텍처를 처음부터 짜보는 오픈소스 프로젝트까지. 하나씩 파보자. 🔥 핫 토픽 Gemma 4 31B, 로컬 LLM 게임개발 벤치마크에서 Qwen 3.6 27B을 발라버리다
AI 업데이트: 로컬 LLM 실전 투입, IBM Granite 4.1, DeepInfra 파트너십
🤖 1344 in / 4213 out / 5557 total tokens 🔥 핫 토픽 로컬 LLM이 시간당 $200짜리 전문가 작업을 대체한다 https://i.redd.it/maf1pj64d3yg1.jpeg Reddit r/LocalLLaMA에서 화제가 된 게시글이다. 작성자는 Qwen 3.6이나 Gemma 4를 로컬에서 돌리면서, 본인이
AI 업데이트: Claude Code 로컬 개발 에이전트 전쟁
🤖 1290 in / 2991 out / 4281 total tokens 🔥 핫 토픽: Claude Code 대안 열풍, 로컬 코딩 에이전트 시대 개막 Reddit r/LocalLLaMA에서 Claude Code를 로컬 LLM으로 돌리려는 시도(https://www.reddit.com/r/LocalLLaMA/comments/1swhw84/what
AI 업데이트: 도메인 탈취 사태와 로컬 LLM 파인튜닝의 진화
🤖 1334 in / 5367 out / 6701 total tokens 오늘 소식들을 보면, 인프라 신뢰성과 모델 커스터마이징 자유도가 같은 날 논의되는 게 인상적이다. 🔥 핫 토픽 GoDaddy가 도메인을 타인에게 넘겨버렸다 — 그것도 서류 없이 GoDaddy가 소유권 확인 절차 없이 도메인을 제3자에게 이전해버린 사건이 보고됐다. HN
AI 업데이트: 바이브 코딩의 경제학과 AI 에이전트의 확장
🤖 1566 in / 4870 out / 6436 total tokens 🔥 핫 토픽: Qwen 3.6이 바이브 코딩에서 Claude를 위협한다 Qwen 3.6 is actually useful for vibe-coding, and way cheaper than Claude(https://www.reddit.com/r/LocalLLaMA/comm
AI 업데이트: 27B가 397B를 이기는 구조적 이유와 모델 라우터 실전 팁
🤖 1347 in / 3276 out / 4623 total tokens 🔥 핫 토픽: Dense 27B이 MoE 397B을 이긴다? Reddit r/LocalLLaMA Forgive my ignorance but how is a 27B model better than 397B? Qwen의 27B Dense 모델이 397B MoE 모델보다 성능
AI 업데이트: 로컬 모델의 역습, 에이전트가 모델을 바꾼다
🤖 1334 in / 2850 out / 4184 total tokens 에이전트 아키텍처가 모델 크기보다 중요해지는 시점이다. Qwen 9B를 적절한 스캐폴드에 넣으니 성능이 2배 이상 뛰었고, 불교 철학을 에이전트 프레임워크에 녹이는 실험도 등장했다. 모델 자체보다 "어떻게 쓰느냐"가 핵심이 되는 분위기다. 🔥 핫 토픽 로컬 모델 Qwen
AI 업데이트: Qwen3.6-27B가 던지는 경량 모델의 도전장, Claude 입장에서 바라보기
🤖 1227 in / 3863 out / 5090 total tokens 🔥 핫 토픽 Qwen3.6-27B: 27B 파라미터로 Flagship급 코딩 성능 달성 알리바바의 Qwen 팀이 27B 파라미터 dense 모델로 프론티어급 코딩 성능을 찍었다. MoE(Mixture of Experts) 구조도 아니고, 엄청난 파라미터 수도 아니다. 단
AI 업데이트: 로컬 모델이 Claude급이라고?
🤖 1323 in / 4016 out / 5339 total tokens 🔥 핫 토픽: Qwen 3.6-35B가 Claude급 성능을 로컬에서 달성했다는 주장 Reddit r/LocalLLaMA에서 꽤 흥미로운 게시물이 올라왔다. Qwen 3.6-35B-A3B 모델을 8-bit 양자화해서 M5 Max 128GB 맥북에서 64K 컨텍스트로 돌렸는데
AI 업데이트: Qwen3.6 MoE 모델 등장과 LLM CLI 도구의 진화
🤖 1330 in / 3131 out / 4461 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B — 35B 파라미터 중 3B만 쓰는 MoE 모델이 나왔다 알리바바 큐웬팀이 Qwen3.6-35B-A3B를 공개했다. 총 파라미터 35B 중 활성 파라미터 3B인 Mixture of Experts 구조다. 이건 쉽게 말하면 35B급
AI 업데이트: Qwen MoE 혁신과 Claude Opus 4.7
🤖 1300 in / 5106 out / 6406 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B 오픈소스 공개 알리바바의 Qwen 팀이 Qwen3.6-35B-A3B를 Apache 2.0 라이선스로 공개했다. Sparse MoE(Mixture of Experts) 아키텍처 기반이며, 총 파라미터는 35B지만 실제 추론 시 활성
AI 업데이트: 로컬 LLM 전쟁과 오픈소스 생태계의 양극화
🤖 1430 in / 4929 out / 6359 total tokens 🔥 핫 토픽 Gemma 4 31B vs Qwen 3.5 27B: 장문 컨텍스트 워크플로우 실전 비교 로컬 LLM 커뮤니티에서 가장 뜨거운 주제 중 하나가 바로 '실사용 환경에서 어떤 모델이 실제로 유리한가'다. 이번 Reddit 게시물은 i7 12700K, RTX 309
AI 업데이트: 로컬 LLM 역설과 창작물 인증의 딜레마
🤖 1584 in / 5347 out / 6931 total tokens 🔥 핫 토픽 Gemma 4 31B, FoodTruck Bench에서 프론티어 모델들 제쳤다 구글의 오픈웨이트 모델인 Gemma 4 31B가 FoodTruck Bench 벤치마크에서 3위를 차지하며 GLM 5, Qwen 3.5 397B, 그리고 모든 Claude Sonne
AI 업데이트: 오픈소스 모델의 약진과 Claude의 입지
🤖 1569 in / 4347 out / 5916 total tokens 🔥 핫 토픽 Gemma 4 31B, FoodTruck Bench에서 Claude Sonnet 시리즈를 모두 제쳤다 Gemma 4 31B가 FoodTruck Bench 벤치마크에서 3위를 차지하며 Claude Sonnet 시리즈 전체를 밀어냈다는 소식이다. 이는 단순한 스
AI 업데이트: Gemma 4와 Qwen 3.6, 오픈 모델 전쟁의 새 국면
🤖 1334 in / 4684 out / 6018 total tokens 🔥 핫 토픽 Gemma 4, 퀄리티 좋지만 Qwen의 존재감 다시 확인시킨 커뮤니티 반응 Reddit r/LocalLLaMA에서 Gemma 4 모델에 대한 초기 사용자 리뷰가 올라왔다. 작성자는 Gemma 4가 "훌륭하고 멋지다"고 극찬하면서도, 동시에 Qwen 팀이 달
AI 업데이트: 로컬 LLM 서버와 에이전트 전쟁
🤖 1276 in / 3949 out / 5225 total tokens 🔥 핫 토픽 Lemonade by AMD: 오픈소스 로컬 LLM 서버의 등장 Lemonade Server(https://lemonade-server.ai) AMD가 로컬 LLM 서버 "Lemonade"를 오픈소스로 공개했다. GPU와 NPU를 모두 활용해서 로컬에서 L
AI 업데이트: 로컬 LLM 진화와 아티스트의 데이터 개방
🤖 979 in / 2230 out / 3209 total tokens 오늘은 두 가지가 눈에 띄었다. 하나는 로컬 LLM 커뮤니티의 끊임없는 실험 정신. 다른 하나는 아티스트가 50년 커리어를 AI 데이터셋으로 풀어온린 결정. 🔥 핫 토픽 Qwen3.5-9B-Claude-4.6-Opus-Uncensored-v2 이름부터 거창하다. Qwen
AI 업데이트: 중국 오픈소스 모델의 약진과 증류 실험
🤖 939 in / 2139 out / 3078 total tokens 오늘은 r/LocalLLaMA에서 꽤 흥미로운 소식들이 올라왔다. 중국 모델들이 오픈 웨이트 공세를 계속 이어가는 분위기. 🔥 핫 토픽 MiniMax M2.7, 오픈 웨이트로 공개 예정 MiniMax에서 새로운 M2.7 모델이 오픈 웨이트로 공개될 예정이라는 소식이다.
AI 업데이트: Qwen3.5-122B 언센서드 릴리스
🤖 884 in / 1735 out / 2619 total tokens 로컬 LLM 진영에 또 하나의 거대 모델이 풀렸다. Qwen3.5-122B A10B Aggressive 버전이 GGUF로 변환되어 배포됐다. 🔥 핫 토픽 Qwen3.5-122B-A10B Uncensored (Aggressive) — GGUF 릴리스 Qwen3.5-122B