마이크로소프트가 자체 설계 2세대 AI 가속기 ‘Azure Maia 200(마이아 200)’를 공개(마이아100 공개 후 약 2년). 대규모 모델 ‘추론(inference)’에 최적화된 칩/시스템이라는 점을 전면에 내세움.
- Maia 200은 “칩 1개” 발표가 아니라 클라우드(Azure)에서 ‘추론 비용/개발자 생태계/확장 네트워크’까지 묶어 엔비디아·구글·아마존과 경쟁하려는 풀스택(실리콘→시스템→소프트웨어) 전략의 강화판으로 볼 수 있음.
- 생성형 AI 서비스에서 비용을 좌우하는 ‘토큰 생성(추론) 경제성’을 낮추는 것이 핵심 목표라고 명시.
- 엔비디아 의존도를 줄이기 위한 하드웨어(칩) + 소프트웨어(개발도구) 동시 공세로 해석됨(로이터).
핵심 사양/구성(공식/보도 기반)
- TSMC 3nm 공정 기반.
- 트랜지스터 1,400억 개+, 메모리 하위 시스템 재설계.
- 216GB HBM3e, 초당 7TB 대역폭(공식 보도자료).
- FP4 10 PFLOPS+ / FP8 5 PFLOPS+(공식 보도자료).
- 대규모 확장을 위해 칩 내장 NIC + 이더넷 기반 스케일업 인터커넥트(ATL)로 최대 6,144개 가속기 규모까지 낮은 지연으로 연결하도록 설계(아키텍처 딥다이브).
성능/효율(주장 포인트)
- FP4 기준 AWS Trainium(3세대) 대비 3배 처리량, FP8에서도 구글 7세대 TPU 상회라는 비교를 제시(공식 보도자료).
- 마이크로소프트 내부 최신 하드웨어 대비 달러당 성능(Perf/$) 30% 개선을 주장.
적용
- OpenAI의 GPT-5.2 포함 다양한 모델 지원을 언급하며, Microsoft Foundry 및 Microsoft 365 Copilot 등의 서비스 효율 개선을 목표로 함.
- 내부적으로는 Microsoft Superintelligence 팀이 합성데이터 생성·강화학습 등에도 투입 계획(공식).

[1]: https://news.microsoft.com/source/asia/2026/01/27/%EB%A7%88%EC%9D%B4%ED%81%AC%EB%A1%9C%EC%86%8C%ED%94%84%ED%8A%B8-%EC%B0%A8%EC%84%B8%EB%8C%80-ai-%EC%B6%94%EB%A1%A0-%EA%B0%80%EC%86%8D%EA%B8%B0-%EB%A7%88%EC%9D%B4%EC%95%84-200/?lang=ko "마이크로소프트, 차세대 AI 추론 가속기 ‘마이아 200’ 공개 - Source Asia"
[2]: https://www.reuters.com/business/microsoft-rolls-out-next-generation-its-ai-chips-takes-aim-nvidias-software-2026-01-26/ "Microsoft rolls out next generation of its AI chips, takes aim at Nvidia's software | Reuters"
[3]: https://techcommunity.microsoft.com/blog/azureinfrastructureblog/deep-dive-into-the-maia-200-architecture/4489312 "Deep dive into the Maia 200 architecture | Microsoft Community Hub"
[4]: [Reuters](https://www.reuters.com/business/microsoft-rolls-out-next-generation-its-ai-chips-takes-aim-nvidias-software-2026-01-26/)
[5]: [The Verge](https://www.theverge.com/news/867670/microsoft-maia-200-ai-chip-announcement)
'인공지능 관련 뉴스@기사' 카테고리의 다른 글
| 오늘의 뉴스 (26. 01. 29.) (0) | 2026.01.29 |
|---|---|
| 오늘의 뉴스 (26. 01. 28.) (0) | 2026.01.28 |
| 오늘의 뉴스 (26. 01. 27.) (1) | 2026.01.27 |
| 구글, 인수·투자 하며 비즈니스 확장 중 (0) | 2026.01.26 |
| 오늘의 뉴스 (26. 01. 26.) (0) | 2026.01.26 |