
NVIDIA 转向 SOCAMM 2:新一代内存解决方案推动 AI 服务器能效升级
随着 AI 领域高速发展,大型模型对算力和内存带宽的需求持续攀升。在此背景下,服务器端内存技术的革新成为行业关注的焦点。继 SOCAMM 模块的初步布局后,NVIDIA 于近期调整策略,暂停第一代 SOCAMM 方案,重点推进新一代 SOCAMM 2 技术,并已携手三星、SK海力士及美光等合作伙伴展开样品测试。预计明年初将实现量产,助力下一波高能效 AI 服务器落地。
SOCAMM 技术定位与突破
SOCAMM(Stacked On-Carrier Attached Memory Module)技术主打高带宽、低功耗与紧凑结构,针对 AI 服务器的内存瓶颈、能耗压力等难题提出系统性优化。其核心思路为:通过 LPDDR 类低功耗内存结合 CAMM(Compression Attached Memory Module)新型模块化封装,将传统数据中心 DDR5 RDIMM 方案中难以兼顾的带宽、能效与空间利用率三点有机统一。
在产品定义层面,SOCAMM 致力于实现接近 HBM (高带宽存储器)级别的性能体验,成本却显著低于 HBM,并以高度模块化结构为服务器设计与维护带来极大灵活性。GB300 NVL72 等行业龙头新品,在公开规格表中一度展示其对高达 18TB SOCAMM(LPDDR5X)和 14.3TB/s 带宽的支持。据悉,受主板架构调整影响,相关模组暂未实现即刻商用,但有望在后续 Vera Rubin 平台上为 NVIDIA 新一代 CPU 提供更具弹性的内存扩展方式。
能效驱动下的市场转向
数据中心能耗已成为全球性挑战。据权威机构测算,2028 年美国数据中心用电量或将飙升至 580 TWh,占全国总用电量 12%,较 2023 年增长 2.3 倍。AI 应用的普及加剧这种压力,但也为高能效硬件变革创造了政策和市场双重窗口。
低功耗内存的优势在于极大压缩能耗与发热。例如,美光 LPDDR5X 方案,采用更低工作电压与高效电路,已在权威评测中展现对比 DDR5 RDIMM 的优异指标——包括算力提升、响应延迟降低和能耗节约等多个层面。以主流 AI 推理(如基于 Llama3 70B 的推理任务)为例,LPDDR5X 架构带来的**推理吞吐量提升 4 倍、延迟降低 80%、能耗下降 73%**等数据,不仅折射硬件创新红利,更为算力基础设施的可持续发展提供现实支撑。
SOCAMM 2 技术细节及行业合作动态
进入 2024 年下半年,SOCAMM 2 模块已成为产业合作与测试的重点。其设计延续 694 个 I/O 端口、接口速率提升至 9,600 MT/s(优于上一代的 8,533 MT/s),并布局了支持 LPDDR6 的可能性,进一步提升总线和能效极限。
多家头部厂商加码新一代低功耗内存模块。三星电子最新发布的服务器用 SOCAMM 2 方案采用单面颗粒排布与紧凑螺丝孔设计,利于批量部署及散热优化。SK海力士、美光等多家供应商均推出基于 LPDDR5X 乃至 LPDDR6 的高密度 SOCAMM/MRDIMM 产品,不断刷新模块容量和带宽上限。江波龙近期亦发布新款 SOCAMM2(64~256GB / 8,533MT/s)、采用去梯形结构并适配液冷散热,进一步提升了服务器兼容性及空间利用率。
实测数据显示,新一代 SOCAMM2 相比 DDR5 RDIMM,带宽提升 33%,面积节省 70%,单位功耗降低逾 67%;同容量带宽已达 RDIMM 的 2.5 倍。其应用场景正在从 HPC 与训练/推理服务器扩展至工业网关、智能驾驶等多元市场。
展望:AI 时代的绿色算力基石
随着 AI 算力基础设施持续升级,低功耗高带宽内存正加速成为数据中心降本增效的必争高地。SOCAMM 2 这类新型模块不仅将重新定义内存扩展方式,更将协同 HBM、MRDIMM 等技术,为行业提供更宽广的灵活性和性价比。
无论是美光的 LPDDR5X、三星的模块化创新,还是江波龙等新兴力量的工艺精进,均表明低功耗高带宽内存生态正加速裂变。随着相关模块明年初批量上市,AI 服务器和数据中心有望迎来性能与能效“双飞跃”,为全球智算基础设施绿色升级按下“加速键”。