HBM4到来前夕,HBM热出现两极分化

2024-9-27 9:29:00
  • HBM4到来前夕,HBM热出现两极分化

HBM4到来前夕,HBM热出现两极分化

高带宽存储器HBM由于生成式AI的到来而异军突起,成为AI训练不可或缺的存储产品。三大HBM厂商SK海力士、三星电子、美光科技也因HBM的供应迎来了业绩的高增长。只是,这样的热潮能持续多久,目前业界出现了不同的声音。

机构预警产能过剩

最近,外资摩根士丹利最新报告表示,预计随着市场分散化以及AI领域投资达到高峰,明年HBM市场可能供过于求。原因是目前每家内存厂都在根据HBM产出的最佳可能情况进行生产,将全球原本用于生产DRAM的15%产能转换至生产HBM。并且这样的转换只需要少量的资本投资,预估仅不到2024年DRAM晶圆制造设备的10%。若按这个乐观计划进行,HBM产能可能会面临过剩。

大摩表示,现阶段业界良好的HBM供应状态,2025年时,恐面临实际产出可能会逐渐赶上、甚至超过当前被高估的需求量。一旦上述问题浮现,导致HBM供过于求,内存厂可把产能挪回制造DDR5,并闲置一小部分后端设备。

无独有偶,最近法国巴黎银行旗下证券部门Exane BNP Paribas大幅下调美光评级,理由是担心HBM产能过剩和对传统DRAM定价的影响,会导致更广泛的DRAM市场衰退。

该机构表示,2024年底前HBM的已装机晶圆月产能已经达到31.5万片,到2025年将达到约40万片,而同时期的需求为16.8万片,甚至不到供应量的1/2。预计2025年底前,HBM产能将大幅超出需求,这将进一步打压价格。

存储厂商建设HBM产能

但从存储芯片厂商之前的动作来看,对HBM需求是相对确定的。在此前的财报会上,SK海力士、美光等公司均表示2024年HBM产能已经全部售罄,2025年产能也已经基本分配完成。

此前台媒报道,在 SK 海力士、三星、美光三巨头的大力推动下,2025 年高带宽内存(HBM)芯片每月总产能为54万颗,相比较2024年增加27.6 万颗,同比增长105%。

华福证券的研报指出,根据测算HBM需求量在2024年和2025年将翻倍增长,2025年需求量有望达到20.8亿GB,整体市场规模有望达到311亿美元。考虑到HBM与GPU出货的时间差以及GPU厂商的HBM库存建立,即使原厂大规模扩产,HBM在未来仍将长期处于供不应求态势。也正基于此,今年Q2原厂已针对2025年HBM进行议价,价格初步调涨5~10%。

在产能建设方面,结合TrendForce和韩媒报道等可以看到,三星正在逐步升级其在韩国的平泽工厂(P1L、P2L 和 P3L),以便用于DDR5和HBM。同时,华城工厂(13/15/17 号生产线)正在升级到 1α工艺,仅保留 1y / 1z 工艺的一小部分产能,以满足航空航天等特殊行业的需求。

SK 海力士以南韩利川市M16产线生产HBM,并着手将 M14 产线升级为 1α/1β 制程,以供应 DDR5 和 HBM 产品。另外,SK 海力士在其利川半导体工厂“M10F”生产第五代高带宽存储器(HBM)。这是为了应对 HBM 快速增长的需求。除了NVIDIA之外,SK海力士还向谷歌和亚马逊等公司供应HBM。考虑到M10F的量产时间表,预计设备订单将于今年第四季度开始。预计将引进先进的存储器堆叠封装设备和测试设备。

美光HBM前段在日本广岛厂生产,产能预计今年第四季提升至2.5万颗。长期将引入EUV制程(1γ、1δ),并建置全新无尘室。另外还会升级中国台湾新北和台中的生产线,增加1β工艺的比例。

英伟达GPU需求仍然旺盛

英伟达2025财年第二财季营收300.04亿美元,同比增长122%,继续超预期增长。在第二季度的细分业务收入中,数据中心同比增长 154%。2025财年第三财季收入预计325亿美元。英伟达该季营收指引未达最高预期,不过预计 Blackwell 芯片在第四季度营收数十亿。黄任勋表示,对 Hopper和 Blackwell 芯片的需求令人难以置信,在全球数据中心的全力努力下,英伟达通过加速计算和生成人工智能实现整个计算堆栈的现代化,实现了创纪录的收入。首席财务官表示,Blackwel 已经做出了改进,但没有回答第四季度预计的数十亿美元收入是否是增量。

TrendForce集邦咨询预计,2024年NVIDIA的GPU产品线中近90%将属于Hopper平台,包括H100、H200、特规版H20以及整合了自家Grace CPU的GH200方案,主要针对HPC(高性能计算)特定应用AI市场。预期从今年第三季后,NVIDIA对H100采用不降价策略,待客户旧订单出货完毕后,将以H200为市场供货主力。随着市场对搭载H200 AI 服务器需求提升,将填补Blackwell新平台可能因供应链尚需整备而延迟出货的空缺,预计今年下半NVIDIA数据中心的业务营收将不会受太大影响。

最近黄仁勋在高盛技术会议上表示客户对最新一代Blackwell芯片的需求强劲,“的确很紧张,我们在尽力做到最好。”

TrendForce表示,预估NVIDIA的Blackwell平台将于2025年正式放量,其裸晶尺寸(die size)是现有Hopper平台的两倍,明年成为市场主流后将带动CoWoS需求增长。TrendForce集邦咨询表示,CoWoS主力供应商台积电近期上调至2025年底的月产能规划,有望接近70-80K,相较2024年产能翻倍,其中NVIDIA将占超过一半以上的产能。

当前,各大存储厂商供应的主要是8层HBM3E,SK海力士和美光的HBM3E已应用于英伟达H200,三星的HBM3E也已成功通过英伟达的测试。此外,SK海力士HBM3E将供应给英伟达B100。SK海力士表示将于9月底量产12层HBM3E,开启HBM关键战场。

小结:

HBM是AI芯片中成本占比最高的芯片,根据外媒的拆解,英伟达H100的成本接近3000美元,而其中占比最高的是来自海力士的HBM,总计达到2000美元左右。SK海力士CEO此前表示,预计到2030年SK海力士每年HBM出货量将达到1亿颗。

根据TrendForce的最新研究,2024年全球服务器整机出货量预计约为1,365.4万台,年增长率为2.05%。其中,AI服务器的占比约为12.1%。IDC预测,到2028年中国加速服务器市场规模将达到124亿美元。