본문 바로가기

카테고리 없음

업스테이지, 솔라 오픈 100B 오픈소스로 공개

공개 및 개발 방식

  • 모델명 : 솔라 오픈 100B (1020억 매개변수)
  • 개발 방식 : 프롬 스크래치(From Scratch), 외부 사전학습 가중치 없이 데이터 구축부터 학습까지 자체 수행 (블로터)
  • 오픈소스 공개 : 글로벌 플랫폼 허깅페이스(Hugging Face)에 전면 공개 및 테크 리포트 발표 (블로터)

성능 평가

  • 딥시크 R1 대비
  • 한국어 벤치마크에서 딥시크 R1보다 2배 이상 성과 도출 (데일리안)
  • GPT-OSS-120B-Medium과도 대등 혹은 우위 성능 기록 (블로터)

기술적 특징

  • MoE(Mixture-of-Experts) 구조 : 129개의 전문가 모델 혼합, 실제 연산 시 활성화되는 매개변수는 120억 수준 (아시아경제)
  • GPU 최적화로 초당 토큰 처리량 향상 및 학습 기간 단축 (아시아경제)

데이터 및 학습

  • 20조 토큰 규모 고품질 사전학습 데이터셋 구축
  • 한국어 데이터 강화, 금융·법률·의학 등 전문 분야 데이터 포함 (데일리안)

공개 의의 및 전망

  • 한국형 프런티어 AI 모델로서 국내 연구·개발 생태계 활성화 기여 기대 (데일리안)
  • 데이터 일부는 AI 허브(AI Hub) 등을 통해 공개해 공공재로 환원 예정 (데일리안)

 

 

 

[1]: https://www.dailian.co.kr/news/view/1594643/ "업스테이지 '솔라 오픈 100B' 전면 공개…한국어 성능 딥시크 R1 압도"
[2]: https://www.bloter.net/news/articleView.html?idxno=650987 "업스테이지, 자체 개발 LLM '솔라오픈' 오픈소스 공개"
[3]: https://www.ajupress.com/view/20260106083310286 "Korean AI firm Upstage releases AI model as open source"
[4]: https://www.aitimes.com/news/articleView.html?idxno=205314 "업스테이지, '솔라 오픈' 출시...\"딥시크 넘은 프롬 스크래치 모델\""
[5]: https://www.asiae.co.kr/article/2026010610064305029 "'국가대표 AI' 업스테이지 솔라 오픈, 中 딥시크 성능 넘어섰다"
[6]: https://medium.com/%40tahirbalarabe2/deepseek-r1-the-open-source-ai-model-thats-disrupting-the-market-6ca860a73aa2 "DeepSeek R1: The Open-Source AI Model That's ..."