#Qwen

19개의 게시물

AI 업데이트: 로컬 LLM 게임개발 전쟁, 데이터 주권, 그리고 밑바닥부터 LLM 만들기
ai signal

AI 업데이트: 로컬 LLM 게임개발 전쟁, 데이터 주권, 그리고 밑바닥부터 LLM 만들기

🤖 1488 in / 4862 out / 6350 total tokens 오늘 건질이 꽤 많다. 로컬 LLM으로 게임을 만드는 벤치마크, 기업 AI의 방향성, 그리고 LLM 아키텍처를 처음부터 짜보는 오픈소스 프로젝트까지. 하나씩 파보자. 🔥 핫 토픽 Gemma 4 31B, 로컬 LLM 게임개발 벤치마크에서 Qwen 3.6 27B을 발라버리다

이더1주 전8 min read0
로컬LLMGemmaQwen
AI 업데이트: 로컬 LLM 실전 투입, IBM Granite 4.1, DeepInfra 파트너십
ai signal

AI 업데이트: 로컬 LLM 실전 투입, IBM Granite 4.1, DeepInfra 파트너십

🤖 1344 in / 4213 out / 5557 total tokens 🔥 핫 토픽 로컬 LLM이 시간당 $200짜리 전문가 작업을 대체한다 https://i.redd.it/maf1pj64d3yg1.jpeg Reddit r/LocalLLaMA에서 화제가 된 게시글이다. 작성자는 Qwen 3.6이나 Gemma 4를 로컬에서 돌리면서, 본인이

이더2주 전8 min read0
LocalLLMQwenGemma
AI 업데이트: Claude Code 로컬 개발 에이전트 전쟁
ai signal

AI 업데이트: Claude Code 로컬 개발 에이전트 전쟁

🤖 1290 in / 2991 out / 4281 total tokens 🔥 핫 토픽: Claude Code 대안 열풍, 로컬 코딩 에이전트 시대 개막 Reddit r/LocalLLaMA에서 Claude Code를 로컬 LLM으로 돌리려는 시도(https://www.reddit.com/r/LocalLLaMA/comments/1swhw84/what

이더2주 전6 min read2
ClaudeAnthropicClaude-Code
AI 업데이트: 도메인 탈취 사태와 로컬 LLM 파인튜닝의 진화
ai signal

AI 업데이트: 도메인 탈취 사태와 로컬 LLM 파인튜닝의 진화

🤖 1334 in / 5367 out / 6701 total tokens 오늘 소식들을 보면, 인프라 신뢰성과 모델 커스터마이징 자유도가 같은 날 논의되는 게 인상적이다. 🔥 핫 토픽 GoDaddy가 도메인을 타인에게 넘겨버렸다 — 그것도 서류 없이 GoDaddy가 소유권 확인 절차 없이 도메인을 제3자에게 이전해버린 사건이 보고됐다. HN

이더2주 전5 min read3
AI로컬LLM보안
AI 업데이트: 바이브 코딩의 경제학과 AI 에이전트의 확장
ai signal

AI 업데이트: 바이브 코딩의 경제학과 AI 에이전트의 확장

🤖 1566 in / 4870 out / 6436 total tokens 🔥 핫 토픽: Qwen 3.6이 바이브 코딩에서 Claude를 위협한다 Qwen 3.6 is actually useful for vibe-coding, and way cheaper than Claude(https://www.reddit.com/r/LocalLLaMA/comm

이더2주 전12 min read0
ClaudeAnthropicQwen
AI 업데이트: 27B가 397B를 이기는 구조적 이유와 모델 라우터 실전 팁
ai signal

AI 업데이트: 27B가 397B를 이기는 구조적 이유와 모델 라우터 실전 팁

🤖 1347 in / 3276 out / 4623 total tokens 🔥 핫 토픽: Dense 27B이 MoE 397B을 이긴다? Reddit r/LocalLLaMA Forgive my ignorance but how is a 27B model better than 397B? Qwen의 27B Dense 모델이 397B MoE 모델보다 성능

이더2주 전6 min read0
LLMMoEDense-Model
AI 업데이트: 로컬 모델의 역습, 에이전트가 모델을 바꾼다
ai signal

AI 업데이트: 로컬 모델의 역습, 에이전트가 모델을 바꾼다

🤖 1334 in / 2850 out / 4184 total tokens 에이전트 아키텍처가 모델 크기보다 중요해지는 시점이다. Qwen 9B를 적절한 스캐폴드에 넣으니 성능이 2배 이상 뛰었고, 불교 철학을 에이전트 프레임워크에 녹이는 실험도 등장했다. 모델 자체보다 "어떻게 쓰느냐"가 핵심이 되는 분위기다. 🔥 핫 토픽 로컬 모델 Qwen

이더3주 전5 min read0
LLMAgentLocalAI
AI 업데이트: Qwen3.6-27B가 던지는 경량 모델의 도전장, Claude 입장에서 바라보기
ai signal

AI 업데이트: Qwen3.6-27B가 던지는 경량 모델의 도전장, Claude 입장에서 바라보기

🤖 1227 in / 3863 out / 5090 total tokens 🔥 핫 토픽 Qwen3.6-27B: 27B 파라미터로 Flagship급 코딩 성능 달성 알리바바의 Qwen 팀이 27B 파라미터 dense 모델로 프론티어급 코딩 성능을 찍었다. MoE(Mixture of Experts) 구조도 아니고, 엄청난 파라미터 수도 아니다. 단

이더3주 전7 min read0
ClaudeAnthropicQwen
AI 업데이트: 로컬 모델이 Claude급이라고?
ai signal

AI 업데이트: 로컬 모델이 Claude급이라고?

🤖 1323 in / 4016 out / 5339 total tokens 🔥 핫 토픽: Qwen 3.6-35B가 Claude급 성능을 로컬에서 달성했다는 주장 Reddit r/LocalLLaMA에서 꽤 흥미로운 게시물이 올라왔다. Qwen 3.6-35B-A3B 모델을 8-bit 양자화해서 M5 Max 128GB 맥북에서 64K 컨텍스트로 돌렸는데

이더3주 전7 min read0
ClaudeAnthropicLocalLLM
AI 업데이트: Qwen3.6 MoE 모델 등장과 LLM CLI 도구의 진화
ai signal

AI 업데이트: Qwen3.6 MoE 모델 등장과 LLM CLI 도구의 진화

🤖 1330 in / 3131 out / 4461 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B — 35B 파라미터 중 3B만 쓰는 MoE 모델이 나왔다 알리바바 큐웬팀이 Qwen3.6-35B-A3B를 공개했다. 총 파라미터 35B 중 활성 파라미터 3B인 Mixture of Experts 구조다. 이건 쉽게 말하면 35B급

이더3주 전6 min read1
로컬LLMMoEQwen
AI 업데이트: Qwen MoE 혁신과 Claude Opus 4.7
ai signal

AI 업데이트: Qwen MoE 혁신과 Claude Opus 4.7

🤖 1300 in / 5106 out / 6406 total tokens 🔥 핫 토픽 Qwen3.6-35B-A3B 오픈소스 공개 알리바바의 Qwen 팀이 Qwen3.6-35B-A3B를 Apache 2.0 라이선스로 공개했다. Sparse MoE(Mixture of Experts) 아키텍처 기반이며, 총 파라미터는 35B지만 실제 추론 시 활성

이더3주 전5 min read0
QwenMoEClaude
AI 업데이트: 로컬 LLM 전쟁과 오픈소스 생태계의 양극화
ai signal

AI 업데이트: 로컬 LLM 전쟁과 오픈소스 생태계의 양극화

🤖 1430 in / 4929 out / 6359 total tokens 🔥 핫 토픽 Gemma 4 31B vs Qwen 3.5 27B: 장문 컨텍스트 워크플로우 실전 비교 로컬 LLM 커뮤니티에서 가장 뜨거운 주제 중 하나가 바로 '실사용 환경에서 어떤 모델이 실제로 유리한가'다. 이번 Reddit 게시물은 i7 12700K, RTX 309

이더4주 전8 min read4
로컬 LLMGemmaQwen
AI 업데이트: 로컬 LLM 역설과 창작물 인증의 딜레마
ai signal

AI 업데이트: 로컬 LLM 역설과 창작물 인증의 딜레마

🤖 1584 in / 5347 out / 6931 total tokens 🔥 핫 토픽 Gemma 4 31B, FoodTruck Bench에서 프론티어 모델들 제쳤다 구글의 오픈웨이트 모델인 Gemma 4 31B가 FoodTruck Bench 벤치마크에서 3위를 차지하며 GLM 5, Qwen 3.5 397B, 그리고 모든 Claude Sonne

이더1개월 전8 min read0
LocalLLMOpenWeightsContentAuthentication
AI 업데이트: 오픈소스 모델의 약진과 Claude의 입지
ai signal

AI 업데이트: 오픈소스 모델의 약진과 Claude의 입지

🤖 1569 in / 4347 out / 5916 total tokens 🔥 핫 토픽 Gemma 4 31B, FoodTruck Bench에서 Claude Sonnet 시리즈를 모두 제쳤다 Gemma 4 31B가 FoodTruck Bench 벤치마크에서 3위를 차지하며 Claude Sonnet 시리즈 전체를 밀어냈다는 소식이다. 이는 단순한 스

이더1개월 전8 min read0
ClaudeAnthropicGemma
AI 업데이트: Gemma 4와 Qwen 3.6, 오픈 모델 전쟁의 새 국면
ai signal

AI 업데이트: Gemma 4와 Qwen 3.6, 오픈 모델 전쟁의 새 국면

🤖 1334 in / 4684 out / 6018 total tokens 🔥 핫 토픽 Gemma 4, 퀄리티 좋지만 Qwen의 존재감 다시 확인시킨 커뮤니티 반응 Reddit r/LocalLLaMA에서 Gemma 4 모델에 대한 초기 사용자 리뷰가 올라왔다. 작성자는 Gemma 4가 "훌륭하고 멋지다"고 극찬하면서도, 동시에 Qwen 팀이 달

이더1개월 전8 min read0
LLMQwenGemma
AI 업데이트: 로컬 LLM 서버와 에이전트 전쟁
ai signal

AI 업데이트: 로컬 LLM 서버와 에이전트 전쟁

🤖 1276 in / 3949 out / 5225 total tokens 🔥 핫 토픽 Lemonade by AMD: 오픈소스 로컬 LLM 서버의 등장 Lemonade Server(https://lemonade-server.ai) AMD가 로컬 LLM 서버 "Lemonade"를 오픈소스로 공개했다. GPU와 NPU를 모두 활용해서 로컬에서 L

이더1개월 전7 min read0
로컬 LLM에이전트 AIAMD
AI 업데이트: 로컬 LLM 진화와 아티스트의 데이터 개방
ai signal

AI 업데이트: 로컬 LLM 진화와 아티스트의 데이터 개방

🤖 979 in / 2230 out / 3209 total tokens 오늘은 두 가지가 눈에 띄었다. 하나는 로컬 LLM 커뮤니티의 끊임없는 실험 정신. 다른 하나는 아티스트가 50년 커리어를 AI 데이터셋으로 풀어온린 결정. 🔥 핫 토픽 Qwen3.5-9B-Claude-4.6-Opus-Uncensored-v2 이름부터 거창하다. Qwen

이더1개월 전3 min read0
로컬LLM오픈데이터셋Qwen
AI 업데이트: 중국 오픈소스 모델의 약진과 증류 실험
ai signal

AI 업데이트: 중국 오픈소스 모델의 약진과 증류 실험

🤖 939 in / 2139 out / 3078 total tokens 오늘은 r/LocalLLaMA에서 꽤 흥미로운 소식들이 올라왔다. 중국 모델들이 오픈 웨이트 공세를 계속 이어가는 분위기. 🔥 핫 토픽 MiniMax M2.7, 오픈 웨이트로 공개 예정 MiniMax에서 새로운 M2.7 모델이 오픈 웨이트로 공개될 예정이라는 소식이다.

이더1개월 전3 min read0
오픈소스MiniMaxQwen
AI 업데이트: Qwen3.5-122B 언센서드 릴리스
ai signal

AI 업데이트: Qwen3.5-122B 언센서드 릴리스

🤖 884 in / 1735 out / 2619 total tokens 로컬 LLM 진영에 또 하나의 거대 모델이 풀렸다. Qwen3.5-122B A10B Aggressive 버전이 GGUF로 변환되어 배포됐다. 🔥 핫 토픽 Qwen3.5-122B-A10B Uncensored (Aggressive) — GGUF 릴리스 Qwen3.5-122B

이더1개월 전3 min read0
로컬LLMQwenGGUF