본문 바로가기

인공지능 관련 뉴스@기사

MS, 2세대 AI 가속기 Azure Maia 200(마이아 200) 공개

마이크로소프트가 자체 설계 2세대 AI 가속기 ‘Azure Maia 200(마이아 200)’를 공개(마이아100 공개 후 약 2년). 대규모 모델 ‘추론(inference)’에 최적화된 칩/시스템이라는 점을 전면에 내세움.

  •  Maia 200은 “칩 1개” 발표가 아니라 클라우드(Azure)에서 ‘추론 비용/개발자 생태계/확장 네트워크’까지 묶어 엔비디아·구글·아마존과 경쟁하려는 풀스택(실리콘→시스템→소프트웨어) 전략의 강화판으로 볼 수 있음.
  • 생성형 AI 서비스에서 비용을 좌우하는 ‘토큰 생성(추론) 경제성’을 낮추는 것이 핵심 목표라고 명시.
  • 엔비디아 의존도를 줄이기 위한 하드웨어(칩) + 소프트웨어(개발도구) 동시 공세로 해석됨(로이터).

 

핵심 사양/구성(공식/보도 기반)

  • TSMC 3nm 공정 기반.
  • 트랜지스터 1,400억 개+, 메모리 하위 시스템 재설계.
  • 216GB HBM3e, 초당 7TB 대역폭(공식 보도자료).
  • FP4 10 PFLOPS+ / FP8 5 PFLOPS+(공식 보도자료).
  • 대규모 확장을 위해 칩 내장 NIC + 이더넷 기반 스케일업 인터커넥트(ATL)로 최대 6,144개 가속기 규모까지 낮은 지연으로 연결하도록 설계(아키텍처 딥다이브).

 

성능/효율(주장 포인트)

  • FP4 기준 AWS Trainium(3세대) 대비 3배 처리량, FP8에서도 구글 7세대 TPU 상회라는 비교를 제시(공식 보도자료).
  • 마이크로소프트 내부 최신 하드웨어 대비 달러당 성능(Perf/$) 30% 개선을 주장.

 

적용

  • OpenAI의 GPT-5.2 포함 다양한 모델 지원을 언급하며, Microsoft Foundry 및 Microsoft 365 Copilot 등의 서비스 효율 개선을 목표로 함.
  • 내부적으로는 Microsoft Superintelligence 팀이 합성데이터 생성·강화학습 등에도 투입 계획(공식).

 


[1]: https://news.microsoft.com/source/asia/2026/01/27/%EB%A7%88%EC%9D%B4%ED%81%AC%EB%A1%9C%EC%86%8C%ED%94%84%ED%8A%B8-%EC%B0%A8%EC%84%B8%EB%8C%80-ai-%EC%B6%94%EB%A1%A0-%EA%B0%80%EC%86%8D%EA%B8%B0-%EB%A7%88%EC%9D%B4%EC%95%84-200/?lang=ko "마이크로소프트, 차세대 AI 추론 가속기 ‘마이아 200’ 공개 - Source Asia"
[2]: https://www.reuters.com/business/microsoft-rolls-out-next-generation-its-ai-chips-takes-aim-nvidias-software-2026-01-26/ "Microsoft rolls out next generation of its AI chips, takes aim at Nvidia's software | Reuters"
[3]: https://techcommunity.microsoft.com/blog/azureinfrastructureblog/deep-dive-into-the-maia-200-architecture/4489312 "Deep dive into the Maia 200 architecture | Microsoft Community Hub"

[4]:  [Reuters](https://www.reuters.com/business/microsoft-rolls-out-next-generation-its-ai-chips-takes-aim-nvidias-software-2026-01-26/)
[5]:  [The Verge](https://www.theverge.com/news/867670/microsoft-maia-200-ai-chip-announcement)