
持续推进“人工智能+”行动,AI大模型驱动算力与产业升级
2025年,政府报告首次将“支持大模型广泛应用”写入,强调持续推进“人工智能+”的战略。近年来,大模型技术突飞猛进,不仅带动了算力、算法和数据等核心基础的迭代升级,也推动了芯片及信息基础设施等硬科技与软件服务的协同发展,为产业生态形成了完整闭环。当前,大模型已逐步成为新质生产力的核心动力,深度重塑着生产力体系。
在政策持续加码、市场需求愈发旺盛的双重驱动下,中国AI大模型市场保持高速扩张。据IDC预计,2024年中国大模型应用市场已达47.9亿元,2028年有望增长至211亿元。AI大模型的加速普及不仅带动了云端算力需求,更在端侧(如机器人、智能终端)形成“大模型+传感器+场景”的协同生态。
机遇与挑战并存。随着AI大模型加速落地,产业对于高性能、低延迟、强本地处理能力的诉求也在提升。尤其是推理任务向更广泛、更高效的端侧部署,产业升级面临新的挑战。
云到端:算力需求和计算模式的变革
生成式AI的爆发,令大模型应用从云端向“云—边—端”全栈部署延伸,计算资源需求随之升级。
云端层面,无论训练还是推理,对算力和能效的要求都在持续攀升。模型参数量已经从千亿迈向万亿,训练阶段需要大规模GPU集群。推理成本与用户访问量同步提升,服务器功耗和推理成本面临极限挑战,传统x86架构的数据中心难以满足当前增长速度。
端侧层面,为缓解对云端的依赖,产业通过模型剪枝、知识蒸馏等技术减少模型体积,但对本地算力和能效的要求更加严格。设备端亟需适配高性能CPU、大显存显卡和高速存储,智能手机、车载系统智能终端之间的算力竞争日趋激烈,医疗、教育、工业智能等领域同样需求强劲。
展望未来,AI大模型终端化浪潮还将加速。这一趋势背后,既有技术进步,也有多场景需求和产业政策叠加的驱动。端云协同正成为行业新常态——云端侧重训练和全局推理,端侧侧重实时响应和数据隐私。在智能制造、智慧医疗、自动驾驶等领域,打造一体化“云—边—端”架构,并通过模型优化和硬件加速,成为企业转型不可或缺的路径。当前,Arm架构因高能效、高性能和灵活性,在云到端的AI部署中表现突出,为大模型赋能提供了坚实的计算基础。
Arm技术全栈赋能AI落地
为应对AI大模型从云端到终端的全链路算力需求,Arm提供了完整的软硬件解决方案。
云端优势
Arm Neoverse平台凭借高能效、广泛的行业认可度,已成为基础设施和AI推理领域的代表。2025年,全球超大规模云服务商出货算力中,预计约有一半将采用Arm架构。亚马逊(AWS)、Google Cloud、Azure等均基于Arm Neoverse开发定制芯片,并优化了数据中心的能源效率。以AWS Graviton4 CPU为例,基于Arm Neoverse V2,其在处理Llama 3 8B等大型模型时,性能相较前代提升明显:提示词编码速度提升14%—26%,不同批次生成性能最大提升可达50%。
终端与边缘协同
在终端领域,Arm CSS计算子系统集成了Armv9.2 Cortex CPU集群、Immortalis与Mali GPU,并通过知名代工实现3纳米工艺。Cortex-X925在AI推理(如大语言模型本地生成)场景下,AI性能提升了41%。Armv9架构不仅带来了SME(可伸缩矩阵扩展)、SVE2(可伸缩矢量扩展)等AI加速指令,让本地AI推理更高效,也显著改善了DSP任务性能,适应了端侧对高算力与低能耗的双重需求。
在边缘AI领域,Arm最新发布的计算平台主打高能效CPU(如Cortex-A320)和支持Transformer的大型AI加速器(Ethos-U85),推动大模型在更多终端设备的落地。
构建软件生态
软件层面,Arm于2024年推出KleidiAI软件库,助力AI开发者在各类终端全面释放Arm CPU的潜能,兼容Neon、SVE2、SME2等关键指令集。KleidiAI不仅已适配PyTorch、TensorFlow、MediaPipe等主流框架,并明显提升Llama 3、Phi-3、混元等主流大模型在Arm平台上的运行效率,覆盖基础设施、智能终端、物联网和车载等主要应用场景。
总结
随着AI大模型全面部署,计算产业迈入新阶段。Arm架构依托“云—边—端”协同布局,以高效计算和成熟生态,成为新质生产力的有力引擎。无论是在数据中心打破能效瓶颈,还是赋能终端AI本地推理,亦或通过KleidiAI连接软件与硬件,Arm的全栈方案已成为大模型创新与落地不可或缺的底座。