首页>商情资讯>行业新闻

微软发布AI芯片Maia 200,性能超越谷歌TPU和亚马逊Trainium

2026-1-28 9:10:00
  • 美东时间1月26日,微软正式推出第二代自研人工智能芯片 Maia 200。对这家云计算巨头而言,这不只是一次产品更新,而是减少对英伟达高端GPU依赖、掌控核心算力基础设施的关键一步,也意味着其在自研AI芯片路线上的阶段性成型

微软发布AI芯片Maia 200,性能超越谷歌TPU和亚马逊Trainium

微软推第二代自研AI芯片Maia 200:削弱对英伟达依赖的新筹码

美东时间1月26日,微软正式推出第二代自研人工智能芯片 Maia 200。对这家云计算巨头而言,这不只是一次产品更新,而是减少对英伟达高端GPU依赖、掌控核心算力基础设施的关键一步,也意味着其在自研AI芯片路线上的阶段性成型。

3nm工艺加持,定位最高效推理系统

Maia 200 由台积电采用先进的3纳米工艺代工,目前已率先部署在爱荷华州的数据中心,接下来还将进入凤凰城地区的机房集群。

微软云与AI业务负责人 Scott Guthrie 在博客中给这颗新芯片下了一个相当直接的定义——这是“微软迄今部署过的最高效推理系统”,按官方说法,在同等成本下,其性能相比微软现有最新一代硬件提升约30%。

从公开的性能对比来看,Maia 200 的数据相当激进:

在 FP4 精度下,其性能大约是第三代亚马逊 Trainium 芯片的 3 倍;

在 FP8 精度下,号称超过谷歌第七代 TPU。

微软已经向部分开发者、学术机构和前沿AI实验室开放 Maia 200 的软件开发工具包预览版,未来会逐步将其以云服务的形式开放给更多客户租用。

需要强调的是,Maia 200 是一颗偏重“推理”的加速器。它的设计目标并非追求万能通吃,而是尽可能降低大规模AI服务在推理阶段的单次调用成本——尤其是类似 ChatGPT、Copilot 这类需要持续响应用户请求的生成式应用。根据介绍,Maia 200 将服务于包括 OpenAI 最新 GPT‑5.2 在内的多种大型模型,为 Microsoft Foundry 平台以及 Microsoft 365 Copilot 提供更具性价比的底层算力。

水冷散热与“零浪费”,可持续性被前置

在能效和可持续性上,微软也刻意放大了 Maia 200 的差异化标签。

微软执行副总裁斯科特·盖茨在宣传视频中提到,Maia 200 采用新一代高效水冷方案,强调“零浪费”理念,目标是在提升功耗利用率的同时,降低数据中心对当地水资源及环境的负担——这一点与微软近几年反复强调的碳中和、绿色数据中心路线高度吻合。

从 Maia 100 到 Maia 200:两年成型的一条产品线

如果把时间线往前推,微软自研AI芯片的起点是两年前的 Maia 100。

2023 年 11 月,微软在 Ignite 大会上首次公开 Maia 100:

制程:台积电 5 纳米工艺

封装:CoWoS‑S 技术

晶体管数量:约 1050 亿(略低于 AMD MI300 的 1530 亿)

内存配置:64GB HBM2E,高带宽内存

带宽:约 1.6TB/s – 1.8TB/s

散热:液冷,面向高密度数据中心场景

Maia 100 的主要用途同样是 AI 训练与推理,尤其偏向大语言模型。不过,这款芯片的设计思路与传统“堆料比拼峰值算力”的路线不太一样,更像是为 Azure 云上特定工作负载做了一次“定制优化”,用于支撑 Bing、GitHub Copilot 以及 OpenAI 模型等服务。

微软采用的是典型的垂直整合思路:

从芯片本身,到服务器主板、机柜,再到冷却系统,尽量统一规划、协同设计。这也给 Maia 系列留下了更多“非标准化”的发挥空间。

其中一个被频繁提及的亮点,就是 Maia 100 上使用的自定义数据类型 “MX”。微软为此开发了亚 8 位(Sub‑8‑bit)计算格式,并通过软硬件协同,在尽量保证模型精度的前提下,显著提升单位面积内的计算密度与能效,尤其适合大模型推理这类吞吐敏感场景。

当然,Maia 100 也有明显取舍。它在片外内存带宽(HBM)方面的指标,大约 1.6TB/s,略逊于英伟达 H100 和谷歌 TPU v5,这与其在 LLM 浪潮全面爆发前就已定型不无关系。

不过在片上网络和集群互联能力上,Maia 100 又给出了比较激进的配置:每颗芯片都内置 RDMA 以太网接口,集群互联带宽高达 4.8 Tbps,借助高速网络来一定程度上弥补单颗芯片显存与带宽的不足,更适合做大规模分布式训练。

在软件生态层面,微软也尽量降低迁移门槛。Maia 100 支持 OpenAI Triton 和标准 PyTorch,开发者无需彻底重写代码,就能将现有模型迁移到 Maia 硬件上运行,这一点延续到了后续产品。

自研芯片成云厂商“标配”,算力自主权之争升级

Maia 200 的出现,可以看作是这条产品线的自然迭代,也折射出云计算巨头在AI芯片上的新一轮“军备竞赛”。

在英伟达高端GPU长期供不应求、价格居高不下的背景下,微软、亚马逊、谷歌都在加快自研芯片节奏:

亚马逊有 Graviton 和 Trainium;

谷歌早早布局 TPU;

微软则选择用 Maia 系列和自家的 Cobalt CPU 构建更完整的算力组合。

目标很一致:

一方面缓解对单一供应商的依赖与成本压力,另一方面为云客户提供价格更可控、与自家平台深度集成的算力选项。

微软已经公开确认,Maia 200 之后的 Maia 300 等后续产品正在规划中。随着更多一线AI大模型和云工作负载迁移到自研芯片平台,这条路线能走多远、能在多大程度上撼动英伟达在AI算力领域的主导地位,将在未来几年逐步见分晓。