📌 핵심 요약
- MS, 2년 만에 자체 AI칩 ‘마이아200’ 공개하며 첫 상용화 단계 돌입
- 아마존·구글 경쟁 칩 대비 3배 성능, 달러당 성능 30% 향상 주장
- 엔비디아 독점 생태계 ‘쿠다’ 대항마 SDK 공개로 소프트웨어 경쟁 본격화
마이크로소프트(MS)가 인공지능(AI) 칩 시장의 판도를 뒤흔들 야심찬 행보에 나섰다. 2023년 11월 첫 AI 칩 ‘마이아100’을 공개한 지 2년여 만에 선보인 ‘마이아200’은 단순한 하드웨어 업그레이드가 아니라, 엔비디아 중심의 AI 생태계에 대한 전면적인 도전장이다.
추론 특화 설계로 경쟁사 압도 주장
MS는 1월 26일(현지시간) TSMC의 3나노 공정을 기반으로 제작한 마이아200을 출시했다고 밝혔다. 이 칩은 AI 추론의 단위가 되는 ‘토큰’ 생성의 경제성을 향상시킨 것이 특징이다.
경량 연산(FP4) 성능에서 아마존의 자체 칩 ‘트레이니엄’ 3세대의 3배에 달하며, 구글의 7세대 텐서처리장치(TPU) ‘아이언우드’보다도 연산 효율성이 높다는 것이 MS 측의 설명이다. 고대역폭메모리(HBM)가 탑재된 마이아200은 SRAM을 대량으로 실어 챗봇 등에서 다수 사용자 요청을 동시에 처리할 때 응답 속도를 끌어올리는 구조로 설계됐다.
사티아 나델라 최고경영자(CEO)는 더욱 단호했다. “업계 최고의 추론 효율성을 위해 설계된 이 제품은 현존 시스템 대비 달러당 성능이 30% 높다”며 자신감을 표했다.
내부용 넘어 본격 상용화 단계 진입
마이아200이 주목받는 진짜 이유는 상용화 전략에 있다. 마이아100은 애저 클라우드에 탑재해 외부 고객에 제공되지 않고 내부용으로만 사용돼 시장 파급력이 제한적이었다. 반면 마이아200은 다르다.
이 칩은 미국 아이오와주 데이터센터에서 이번 주 가동을 시작하며, 애리조나주에도 추가 배치할 계획이다. 더 중요한 것은 초기 물량은 내부 AI 개발팀에 우선 배정되며, 이후 클라우드 서비스 애저(Azure) 고객들이 사용할 수 있도록 확대할 계획이라는 점이다. MS는 이를 통해 오픈AI의 챗GPT와 자사의 AI 비서 ‘코파일럭’을 비롯한 다양한 AI 모델을 지원한다는 전략이다.
MS는 배치 속도에서도 강점을 강조했다. “첫 실리콘 생산부터 데이터센터 배치까지 걸리는 시간을 유사한 AI 인프라 프로그램의 절반 이하로 단축했다”며 실전 배치 속도전을 부각시켰다.
엔비디아의 철옹성, ‘쿠다’ 생태계 정면 공략
하드웨어만으론 부족하다. AI 칩 시장에서 엔비디아의 진짜 무기는 하드웨어가 아니라 소프트웨어 생태계다. AI 개발자들이 프로그래밍을 위해 필수로 사용해야 하는 도구가 바로 엔비디아의 ‘쿠다(CUDA)’이며, 쿠다로 만든 프로그램은 엔비디아의 GPU에서만 돌아간다.
쿠다 소프트웨어 플랫폼은 20년 이상 전 세계 400만 명 이상의 개발자가 AI 프로그램을 구축하는 데 사용해왔으며, 그동안 쌓인 ‘쿠다 코드’ 량이 상당해 철벽같은 ‘쿠다 생태계’를 구축하고 있다.
MS는 바로 이 지점을 공략한다. MS는 마이아200과 함께 소프트웨어개발도구(SDK)도 새로 내놨으며, 여기에는 오픈소스 도구인 ‘트라이톤’이 포함됐다. 오픈AI가 개발한 트라이톤은 CUDA 경험이 없는 연구자들도 파이썬과 유사한 프로그래밍 언어로 고효율 GPU 코드를 작성할 수 있게 해주는 오픈소스 언어다.
로이터통신은 이 SDK가 엔비디아가 지배력을 유지하고 있는 소프트웨어 플랫폼 ‘쿠다’를 겨냥해 개발자 생태계를 확장하기 위한 것이라고 분석했다. 단순히 칩만 만드는 것이 아니라, 개발자들이 엔비디아 없이도 AI를 개발할 수 있는 완전한 생태계를 구축하겠다는 의지다.
빅테크들의 ‘탈엔비디아’ 전쟁 본격화
MS만의 움직임이 아니다. 구글과 아마존에 이어 주요 클라우드 업체들이 독자 칩을 잇달아 내놓으면서 AI 반도체 시장 판도가 흔들리고 있다. 구글은 이달 6일 AI 전용 가속기(TPU)인 ‘아이언우드’를 정식 출시했으며, 아마존웹서비스(AWS)가 설계한 AI 학습 전용 칩 ‘트레이니움’은 대규모 모델 학습 시 GPU 대비 비용 효율성과 성능을 높였다.
이들의 공통 목표는 명확하다. GPU 공급은 사실상 엔비디아가 독점하고 있는 구조다. 가격이 매우 비싸고 최대 1년까지 기다려야 하는 등 공급량도 극도로 제한돼왔다. 자체 CPU와 AI칩 개발은 외부 의존도를 줄이고 원하는 시점에 원하는 규모로 공급을 확보할 수 있게 해준다는 전략적 판단이 깔려 있다.
업계 평가는 엇갈려
그러나 성공은 장담할 수 없다. 전 세계 80% 이상의 AI가 쿠다 환경에서 개발되고 있으며, 딥러닝의 창시자인 제프리 힌튼 토론토대 교수는 “쿠다 없이 딥러닝 실행은 불가능에 가깝다”고까지 표현했다. 국내를 비롯한 글로벌 AI 산업은 엔비디아의 병렬 컴퓨팅 플랫폼 ‘쿠다’ 의존도가 높아 새로운 AI 가속기가 실효성을 갖기 어려운 구조라는 우려도 나온다.
그럼에도 변화의 조짐은 감지된다. 최근 개발 프로그램들은 쿠다 외 플랫폼에서의 호환을 적극적으로 지원하고 있다. 프로그래밍 도구들이 대부분 다양한 사람들이 참여해 수정·고도화하는 ‘오픈소스’ 기반이어서 특정 플랫폼 종속을 거부하려는 성향이 강하기 때문이다.
MS는 ‘세계 최초의 행성 규모 AI 슈퍼팩토리’를 구축하며 미국 내 거대 데이터센터들을 초고속 네트워크로 연결해 전 세계 애저 인프라와 통합한 초대형 AI 슈퍼컴퓨터급 인프라를 확보했다. 압도적인 규모의 데이터센터와 자체 개발 AI칩, 그리고 소프트웨어 생태계 구축 전략까지 갖춘 MS의 도전이 AI 반도체 시장의 지각 변동을 일으킬 수 있을지 주목된다.
👉 주식시장 돈은 ‘여기로’ 흘러가고 있다! 돈 벌려면 ‘머니 무브’ 놓치지 말아야