首页>商情资讯>行业新闻

H200 解禁!预交付8万颗,传阿里砸数亿抄底对手

2025-12-26 9:07:00
  • 英伟达H200拟于明年2月入华 阿里被曝采购AMD MI308 国产GPU迎“冷静期”

H200 解禁!预交付8万颗,传阿里砸数亿抄底对手

英伟达H200拟于明年2月入华 阿里被曝采购AMD MI308 国产GPU迎“冷静期”

近日,市场多方消息称,英伟达已向中国客户释放信号,计划在 2026 年 2 月中旬开始向国内交付 H200 系列 AI 芯片。这被普遍视作此前美国方面“有条件放行”对华销售高端 AI 芯片政策的具体落地。

与此同时,有传闻称阿里巴巴正考虑向 AMD 下单 4 万至 5 万颗 MI308 芯片。在国产 GPU 厂商集中上市、情绪高涨的背景下,上述消息对相关概念股带来明显扰动:12 月 24 日,刚刚登陆资本市场的摩尔线程、沐曦股份股价分别下跌 6.32% 和 7.03%,其中沐曦收盘价已跌破首日盘中低点。

H200计划重启对华供货:或首批交付4万至8万颗

在英伟达的产品矩阵中,H200 属于 Hopper 架构的高端产品,整体性能仅次于新一代 Blackwell 系列(如 B100),此前一直处于对华出口受限状态。

H200 发布于 2023 年 11 月,重点针对大模型训练与推理中的显存瓶颈做了升级:

搭载最高 141GB HBM3e 显存,比 H100 的 80GB HBM3 提升约 76%;

相比早期中国特供版 H20(96GB HBM3),显存容量约为其 1.5 倍;

显存带宽最高可达 4.8TB/s(部分测试可达 5.1TB/s),较 H100 的 3.35TB/s 提升四成以上,是采用 GDDR6X 的 H20 方案的多倍水平。

今年 12 月初,美国方面通过社交媒体表示,将允许英伟达在“获批客户”“限定条件”下,对中国销售 H200,并从相关销售额中收取一定比例的分成。随后,又将类似安排扩展至 AMD、英特尔等其他 AI 芯片厂商。

按照业内流出的说法,英伟达计划优先动用库存保障明年 2 月中旬的首批交付,预计将提供 5000 至 10000 套 H200 模组,对应约 4 万至 8 万颗芯片,相关订单有望为公司贡献数十亿元级别营收。英伟达方面则回应称,将在合规前提下持续优化供应链,对华交付 H200 不会削弱其对全球其他客户的供货能力。

需要强调的是,H200 的出口仍需逐单审批,美国针对“同等规格芯片代工”的限制也并未明显放宽,例如先进制程、高算力等级产品的代工限制仍然存在。因此,本次 H200 放开更多被视作对国内算力缺口的一次阶段性补位,而非长期稳定的解决方案。

阿里被曝下单MI308:大显存与成本优势成“折中选项”

与英伟达主打顶级性能略有不同,AMD 在对华 AI 芯片布局上更突出“性价比”与兼容性。

市场传闻中的 MI308,被定位为“面向中国市场的合规产品”,核心卖点集中在显存和成本两个维度:

搭载 192GB HBM3 显存,目前在商用 GPU 中处于较高水平,比 H200 多出 50GB 以上;

显存带宽约 10.3TB/s,是 H200 的两倍以上,更适配 70B 级大模型全参数推理等高显存场景;

在受美国出口管制限制的前提下,MI308 的 FP8 算力被控制在 320 TFLOPS 以内,低于 350 TFLOPS 的上限;

单卡价格据称较英伟达 H20 便宜约 15%,八卡模组整体成本控制在 120 万元左右,相比 H200 约 140 万元的模组价格更具成本优势。

在部署成本和改造工程方面,MI308 采用与 MI350 系列相近的散热与机架设计,能够直接适配现有主流数据中心环境,无需大规模改造,可以缩短上线周期。对阿里云等需要快速补充推理算力的云厂商来说,这类方案在成本、部署效率和性能之间形成了相对均衡的组合。

考虑到美国方面已对 H200 等更高档产品松动出口限制,未来 AMD 是否会进一步在国内推出 MI325X 等更高规格产品,也成为市场关注的方向。若相关政策和产品节奏继续演变,现阶段传出的“阿里下单 5 万颗 MI308”的消息,后续不排除存在调整空间。

对国产GPU的短期扰动:性能与生态仍是关键考量

从二级市场的即时反应来看,英伟达 H200 放开销售以及大型互联网企业加大对 AMD 芯片的采购预期,对处于风口期的国产 GPU 概念股,形成了明显的情绪压制。

在中高端算力需求区间,H200 尽管不及最新一代 Blackwell 系列,但作为 Hopper 架构的高端产品,其综合算力指标仍对国内同类产品保持一定领先优势,且相较此前的 H20 有明显进步。

从相关公开测算的 TPP(综合算力指标)来看:

H200 TPP 约为 15832;

华为昇腾 910C 约为 12800;

寒武纪思元 690 约为 8986;

沐曦 C500 约为 3840。

在算力差距之外,生态成熟度也是大型模型企业评估的重要维度。CUDA 生态在深度学习框架、开发工具、社区资源等方面的积累,使得很多企业在“性能+迁移成本”的综合权衡下,仍会优先考虑英伟达、AMD 等国际厂商的产品。

当然,国产 GPU 阵营也并非完全“从零起步”。目前:

华为 CANN 对 CUDA API 的兼容覆盖率已在 80% 左右;

海光对 ROCm 的迁移效率约在 85% 左右。

通过兼容主流生态、发展自有软件栈、与下游大模型及应用厂商联合优化,国产方案在实际落地中的适配程度正在逐步提升。

短期来看,H200 和 MI308 的供货预期,将在一定程度上分流本应流向国产 GPU 的部分高端算力需求。

但从中长期看,国际供应政策反复不定,始终是悬在头顶的一把“紧箍咒”,反而强化了国内厂商、自研团队推动国产替代的动力。

自主生态仍是长期主线

面对不稳定的外部环境,国内多家头部互联网科技公司已经在算力芯片上选择多条路径并行:

一方面积极采购国际主流方案,以缓解当下的训练和推理算力缺口;

另一方面,通过自研芯片、扶持国产 GPU、联合产业链伙伴建设软件生态等方式,尝试在更长周期内降低对单一供应链的依赖。

从产业发展角度看,本次 H200 在对华销售上的“松动”,在短期内有助于缓解 AI 大模型企业的算力紧张问题,也能在一定程度上平抑市场对“算力荒”的预期。但真正决定行业竞争格局的,仍然是本土产业链在以下几方面能走多远:

GPU 厂商持续的产品迭代与工艺升级;

与云厂商、大模型企业协同打磨软硬件栈;

工具链与接口标准的统一、规范与开放;

在能源效率、总体拥有成本(TCO)等指标上的综合竞争力。

只有在硬件、软件和生态多层面形成真正可替代、可持续的体系,本土 GPU 及相关产业链,才能在未来的全球 AI 竞争中,建立起不依赖“政策缝隙”的长期优势。