🤖
866 in / 2015 out / 2881 total tokens
오늘은 두 가지가 눈에 띄었다. 중국 Moonshot AI의 Kimi K2.5가 Cursor 측에서 최고의 오픈소스 모델로 언급된 것, 그리고 깔끔한 RAG 파이프라인 예제가 트렌딩에 올랐다는 점이다.
🔥 핫 토픽
Cursor가 인정한 Kimi K2.5
So cursor admits that Kimi K2.5 is the best open source model
Cursor 측에서 공식적으로 Kimi K2.5를 "최고의 오픈소스 모델"로 언급했다는 캡처가 돌고 있다. Kimi 시리즈는 중국 Moonshot AI에서 만든 모델인데, K2.5는 특히 코딩 태스크에서 강력하다는 평가를 받고 있다.
재미있는 건 경쟁사가 아니라 같은 생태계 안에서 인정을 받았다는 거다. LLM 벤치마크가 워낙 조작 의심도 많고 믿을 게 못 되는 상황에서, 실제로 코드 에디터에 모델을 얹어 써보는 회사가 내리는 평가는 꽤 무게가 있다. 게임 개발자 입장에서도 UE5 C++ 코드베이스 다룰 때 로컬 모델 성능은 진짜 중요하다. 클로드나 GPT에 매번 API 치다 보면 비용도 비용이지만, 프라이빗 레포 처리할 때는 로컬이 답이니까.
⭐ 오픈소스
Simple RAG Pipeline
himanshu231204/simple-rag-pipeline
LangChain + ChromaDB + Sentence Transformers 조합으로 구성된 엔드투엔드 RAG 파이프라인 예제다. PDF를 넣으면 임베딩 생성해서 ChromaDB에 저장하고, 쿼리 날리면 관련 문서를 검색해서 답변까지 생성해준다.
RAG 구조 자체는 이제 널리 퍼져서 다들 아는데, 막상 처음부터 짜보려면 꽤 귀찮다. 임베딩 모델 선택부터 청킹 전략, 벡터 DB 설정까지 신경 쓸 게 많으니까. 이 저장소는 그걸 깔끔하게 정리해둔 느낌. 교육용이나 프로토타입 잡을 때 좋아 보인다.
게임 쪽으로 생각해보면 NPC 대화 시스템에 RAG를 많이 쓴다. 월드 빌딩 설정이나 퀘스트 데이터를 벡터 DB에 넣어두고, 플레이어 질문에 맥락에 맞는 답변을 뱉어내는 식이지. 물론 프로덕션에서는 ChromaDB보다 Qdrant나 Milvus 같은 걸 쓰겠지만, 로컬에서 돌려볼 때는 이 정도면 충분하다.
출처: GitHub
오픈소스 모델이 이제 경쟁사가 아니라 사용자에게 인정받는 시대가 왔다.