首页>商情资讯>行业新闻

存储产业的寒武纪大爆发来了

2025-2-11 9:27:00
  • 存储产业的寒武纪大爆发来了

存储产业的寒武纪大爆发来了

DeepSeek-R1:革新AI推理的里程碑

DeepSeek-R1 是由幻方量化旗下深度求索(DeepSeek)公司研发的最新推理模型,于 2025年1月20日 正式发布。这款模型采用强化学习技术进行后训练,专注于提升推理能力,在数学、代码和自然语言推理等复杂任务上表现尤为出色。凭借高性能与低训练成本,DeepSeek-R1一经发布便引发了行业的广泛关注。

技术与成本的双重突破

DeepSeek-R1 的发布标志着 AI 模型开发迈向了高效与普及化的新阶段。DeepSeek 表示,该模型在数学、代码和自然语言推理方面的表现可媲美 OpenAI 的 o1 正式版,但其训练成本却仅为后者的 3%-5%。这一突破得益于 DeepSeek 在算法优化与资源利用上的创新。

此前,2024年12月发布的 DeepSeek-V3 模型便已引领行业关注,其训练成本仅为 557.6万美元,使用了 2048块英伟达H800 GPU。H800 是英伟达专为中国市场推出的芯片,性能虽较旗舰级 H100 略有降低,但通过优化算法和模型压缩,DeepSeek-V3 的性能已接近 OpenAI 的 GPT-4o。而 DeepSeek-R1 的成本控制和性能表现更进一步,展示了无需依赖高昂算力和庞大数据也能实现顶尖性能的可能性。

推动AI普及与存储行业发展

DeepSeek-R1 的技术创新不仅降低了模型开发与部署的门槛,也对存储行业带来了深远影响:

1. 降低存储成本

DeepSeek 的算法优化和模型压缩技术显著降低了对高端 GPU 和高性能存储(如 HBM)的需求。这一改变让企业在 AI 服务器配置上的投入更加经济高效。

然而,在大规模训练和推理阶段,DeepSeek 仍需处理海量数据,对高性能存储容量和速率的要求依然存在。尤其是在模型推理阶段,其广泛应用于智能客服、图像识别、自然语言处理等场景时,会产生大量中间数据和结果数据,需要高效存储支持。

2. 促进存储技术创新

随着 AI 应用的普及,存储厂商正加速研发新型存储架构。例如,DeepSeek 的算法已适配存内计算架构(如 ReRAM),通过减少数据搬运来降低能耗。

同时,DeepSeek 支持与存储厂商合作优化接口协议(如 CXL),进一步降低系统延迟。

近期,DeepSeek 在 AMD EPYC CPU 上运行无需显卡支持,搭配高频多通道内存便可显著提升运行速度。这种低功耗、高性价比的组合为未来 AI 推理设备的研发提供了新思路。

3. 存储芯片需求增长

AI 推理对数据存储的依赖性将持续增加。DeepSeek-R1 的本地部署和边缘计算应用将推动对低功耗、高耐久存储芯片(如 NOR Flash、MRAM)的需求。

随着 AI 应用场景的扩展,HBM(高带宽内存)仍是高强度数据处理的核心组件。三星、SK 海力士和美光等厂商正竞相研发 HBM4,以满足未来更高性能的需求。

AI 推理过程中生成的大量中间数据对高性能 eSSD 的需求也在快速增长。eSSD 凭借高速度和低能耗的优势,正在逐步取代传统 HDD,成为数据存储的主流选择。

AI推理的广泛落地

根据 IDC 数据,AI 推理的算力需求正在快速上升,预计到 2026年,推理占比将达到 62.2%,训练占比为 37.8%。这一趋势表明,AI 推理将在未来的市场竞争中占据核心地位。

边缘计算与存储需求

在边缘计算场景下,DeepSeek-R1 可应用于 AIoT 设备,对存储芯片提出了更高要求。例如,NOR Flash 和 MRAM 在低功耗、高耐久性设备中的需求将显著增长。

AI 终端设备(如 AI 眼镜、耳机等)的兴起也将推动 NOR Flash 容量的提升。例如,AI 耳机如果加入更多智能功能,将对存储容量形成明显拉动。

写在最后

DeepSeek-R1 的发布不仅展示了高效 AI 模型开发的可能性,也为国产芯片厂商在 AI 推理市场的竞争力提升提供了契机。随着 AI 推理的广泛落地,存储芯片作为 AI 基础设施的重要组成部分,将迎来新的市场机遇。从 HBM 到 eSSD,再到边缘设备中的 NOR Flash 和 MRAM,存储行业的创新将持续推动 AI 技术的普及与发展。