首页>商情资讯>行业新闻

Arm 2026年展望:构建云边端全栈能力 驱动AI无处不在

2026-1-9 9:54:00
  • 2025 年,在 AI 需求集中释放和全产业链复苏的带动下,全球半导体市场整体呈现出强劲上行态势

Arm 2026年展望:构建云边端全栈能力 驱动AI无处不在

2025 年,在 AI 需求集中释放和全产业链复苏的带动下,全球半导体市场整体呈现出强劲上行态势。围绕 EDA/IP 先进方法学、先进工艺、算力芯片、端侧 AI、精准控制、高端模拟、高速互联、新型存储、先进封装等方向的技术创新,与 AI 数据中心、具身智能、新能源汽车、工业智能、卫星通信、AI 眼镜等新兴应用相互叠加,正在推动新一轮技术与应用的深度变革。可以说,过去一年,半导体产业进一步夯实了数字经济高质量发展的“算力底座”。那在新的年度,半导体又将如何继续推进端云协同,加速普惠智能的落地?

近日,由电子发烧友网策划的“2026 半导体产业展望”专题正式上线。多年来,“半导体产业展望”系列已成为业内颇具影响力的年度策划之一,每次发布都引发广泛关注与讨论。专题汇集了来自产业一线的企业高管,对过去一年行业走势的梳理与复盘,以及对来年市场机会与技术趋势的研判,这些观点为从业者提供了重要的观察窗口和决策参考。本期,电子发烧友网专访了 Arm 中国区业务全球副总裁邹挺,以下为其对 2026 年半导体产业的思考与展望整理。

2025 年企业表现:深化“平台优先”,打通云边端

2025 年,在 AI 的牵引下,半导体行业实现了全面回暖。随着 AI 在数据中心、汽车、智能终端等领域的应用不断深化,AI 负载正加速从云侧向边缘和物理世界渗透。这不仅持续推高对高性能计算的需求,也让高能效、高安全、可扩展的计算平台变得愈发关键。

邹挺表示,作为全球 AI 计算的重要底座,Arm 近年来持续推进“平台优先”战略:面向基础设施、PC、移动、汽车、物联网等市场,推出了全新的产品命名与平台体系,加速向“计算平台公司”转型。在此基础上,Arm 联合产业链伙伴构建从云端到边缘的一体化 AI 能力布局,推动智能计算真正做到“无处不在”。

云侧 AI:Neoverse 撬动融合型 AI 数据中心

在云端基础设施领域,Arm Neoverse 平台继续为融合型 AI 数据中心提供高密度、高能效且支持定制化的 CPU 核心,帮助客户在提升性能的同时优化总拥有成本 (TCO),并缩短产品上市周期。目前,阿里云、亚马逊云科技、Google、Meta、微软等全球主流云服务商均在大规模采用 Neoverse 架构来构建算力基础设施,在性能、功耗与规模之间取得平衡。

据介绍,Neoverse 平台累计核心部署量已突破 10 亿个;在 2025 年面向头部云服务商出货的算力中,基于 Arm 架构的份额已经接近一半。

边缘与消费终端 AI:Lumex CSS 与 SME2 技术落地

在边缘 AI 与消费电子领域,Arm 于 2025 年推出了面向终端设备的全新 Arm Lumex CSS 平台,重点面向智能助手、语音翻译、个性化服务等实时端侧 AI 场景。平台搭载的全新 Arm CPU 引入 SME2 技术,可将 AI 性能最高提升约 5 倍,目前已经在国内合作伙伴的 AI 智能手机与应用中实现规模化落地。

vivo、OPPO 等厂商已推出集成 SME2 技术的旗舰机型,为端侧 AI 带来更加直观的体验提升。在具体应用方面,Arm 与支付宝、vivo 联合完成了基于 SME2 的大语言模型推理验证:在 vivo 新一代旗舰手机上,预填充 (prefill) 和解码 (decode) 阶段的性能分别提升超过 40% 与 25%。在游戏场景中,Arm 与腾讯 GiiNEX 团队合作的初步结果也显示,启用 SME2 后相关负载性能最高可提升约 2.5 倍。

物联网方向,Arm 推出了基于 Armv9 的边缘 AI 计算平台,以 Cortex-A320 CPU 与 Ethos-U85 NPU 为核心,专门针对物联网应用进行优化,可运行超过 10 亿参数规模的端侧 AI 模型,并已获得 AWS、西门子、瑞萨电子等头部企业的支持。

物理世界的 AI:汽车与机器人平台布局

在“物理 AI”领域,Arm 推出了专为汽车打造的 Arm Zena CSS 平台,旨在帮助车厂和芯片企业压缩开发周期、降低工程投入。据介绍,该平台可将芯片开发周期缩短长达 12 个月,并将单个芯片项目的工程资源需求下降约 20%,目前第二代产品研发已经启动。

在汽车软件生态层面,面向嵌入式边缘的可扩展开放架构 SOAFEE 迎来了四周年里程碑:全球成员已超过 150 家,亚太地区占比约 38%,其中包括 AutoCore、黑芝麻智能、广汽、吉利、联想车计算、中科创达等多家中国企业。

软件生态:KleidiAI 加速主流大模型

软件生态是计算平台竞争力的放大器。2025 年,Arm KleidiAI 软件库相继集成到 Llama.cpp、ExecuTorch、LiteRT 等主流 AI 框架中,用于加速包括 Meta Llama 3、Phi-3 在内的多个大模型推理。

在中国市场,KleidiAI 已与阿里“通义千问”、百度“文心”、腾讯“混元”等大模型完成集成,并在模型开源首日就实现抢先适配,推动本土大模型在多终端、多场景的性能释放与落地效率。

2026 技术趋势:AI 正在重塑半导体“底层逻辑”

邹挺认为,AI 在云、边、端各层面的快速渗透,正在从架构、工艺、封装、安全等多个维度,重塑半导体技术演进路径。

1. 从单片 SoC 到模块化 Chiplet

为了灵活应对云训练、边缘推理和终端应用等多样化 AI 负载,半导体设计正在从传统单一大芯片,向模块化芯粒 (Chiplet) 方案加速迁移。通过将计算、存储、互连等单元拆解为可复用模块,并组合不同工艺节点的芯粒,设计团队可以在更短时间内完成特定场景的系统级芯片 (SoC) 定制。

这一趋势意味着行业关注点从“更大、更先进的单芯片”,逐步转向“围绕场景构建更聪明的系统”。与此同时,围绕芯粒的开放标准和互操作规范也在加快推进:通过统一接口和协议,不同厂商的 Chiplet 产品可以实现可靠、安全的集成,供应链选择更加多元,生态形态也从单一厂商主导的封闭系统,向基于可互操作组件的开放体系演进。

2. “超越摩尔”成主线:新材料与先进封装并行

AI 对算力密度和能效的要求不断抬高,技术创新逐步走出单一“缩小晶体管尺寸”的轨道,更多转向新材料、3D 堆叠、Chiplet 集成等“超越摩尔定律”的方向。通过在垂直维度进行功能分层集成、热设计优化和能效提升,高性能 AI 芯片和高密度数据中心基础设施可以在不线性增加功耗的前提下,持续增强能力;对于功耗和散热受限的边缘 AI 设备,这种路线同样是关键支撑。

总体来看,“超越摩尔”的技术路径正在成为高性能 AI 芯片、高密度数据中心以及多样化边缘设备可持续演进的核心底座。

3. 系统级协同设计:融合型 AI 数据中心兴起

AI 工作负载日益复杂,仅仅优化 CPU 或单一加速器已难以取得理想效果,系统级协同设计因此成为显著趋势。未来的创新越来越集中在“从底层硬件到软件栈”的一体化架构设计上,针对具体 AI 框架、数据类型、模型结构和行业应用,进行深度定制。

目前,亚马逊云科技 (Graviton)、Google Cloud (Axion)、Microsoft Azure (Cobalt) 等云厂商已经走在前列:通过自研 CPU 与 AI 加速器,配合定制内存和互连方案,构建可扩展、高效率且对开发者友好的 AI 平台。其目标十分明确——在有限机房面积和功耗预算内,最大化单位面积内的 AI 算力,降低整体运行能耗和成本。这也正在推动面向 AI 的融合型数据中心加速落地。

4. “设计即安全”成为基础要求

随着 AI 系统在自动驾驶、工业控制等关键基础设施中的自主性不断增强,硬件本身也愈发成为安全攻击的新入口。“设计即安全”正在从企业差异化优势,演变为半导体产品的通用硬性要求。

在这一背景下,诸如内存标记扩展 (MTE)、硬件可信根、机密计算安全飞地等功能,正从“可选项”升级为芯片的“标配能力”。考虑到企业与个人的高价值数字资产——包括自有数据集、核心业务逻辑、用户凭据和金融信息等——在 AI 系统中的集中程度日益提升,芯片需要在架构层面部署强制隔离、内存完整性保护以及运行时验证等多层安全机制,确保敏感数据与关键业务在 AI 系统中处理时的机密性与可靠性。

2026 市场机会:三大方向驱动 AI 全面扩张

面向 2026 年,邹挺认为,汽车与机器人、融合型 AI 数据中心以及终端智能三大方向,将成为 AI 全域规模化增长的主要引擎。

1. 汽车与机器人:物理 AI 大规模落地

随着多模态模型以及更高效训练与推理技术的成熟,智能汽车、自主机器、机器人等“物理 AI 系统”将进入更大规模的实际部署阶段,对医疗健康、制造业、交通运输、采矿等行业产生深远影响。一方面,这类系统可以显著提升生产效率;另一方面,也能在高危环境中替代人工,实现更加稳定和安全的作业。

在汽车供应链层面,AI 将贯穿从车载芯片、车规软件到生产线工业机器人等多个环节。高级驾驶辅助系统 (ADAS) 与车载信息娱乐系统 (IVI) 将是最直接的升级驱动因素,相应的芯片与系统架构也会围绕这些需求进行重构。同时,面向汽车和机器人自动化场景的通用计算平台正在逐步浮现:车载计算平台通过合适的复用与适配,可延伸应用到人形机器人、工业机器人等领域,在提升规模效应的同时,加快物理 AI 系统的迭代和落地。

2. 融合型 AI 数据中心:“每瓦智能”成为核心指标

在算力需求、能效约束与成本压力的多重驱动下,融合型 AI 数据中心将成为新一轮基础设施升级的重点。基于系统级协同设计,从底层芯片到上层软件栈的一体化优化,将在云服务商和大型算力运营方中持续推进。

这一类新型数据中心,不再单纯以峰值性能为唯一目标,而是更加关注单位面积 AI 算力和“每瓦智能”(每瓦能够支撑的 AI 计算能力)。这将直接拉动对高能效计算平台和协同设计方案的需求,进一步推动 CPU、AI 加速器、内存与互连架构的演进。

3. 终端智能:走向“个人智能网络”

在终端设备侧,智能手机将全面迈入端侧 AI 阶段,演变为集数字助手、影像中枢和个人管家于一体的综合智能终端。长期以来,PC、移动设备、物联网和边缘 AI 之间的边界相对清晰,平台割裂明显;而在 AI 的拉动下,跨设备、跨系统的兼容性与应用可移植性将显著增强,“一次开发,全域部署”的模式将更加普及。

未来,AI 将打通手机、可穿戴设备、PC、汽车与智能家居等多形态终端,构建起一个持续学习与协同工作的“个人智能网络”:各类边缘设备将原生具备 AI 处理能力,能够实时共享环境与状态信息,协同完成对用户需求的预测与响应,提供更自然的个性化体验。

与此同时,AR/VR 头显与智能眼镜等可穿戴设备,将在物流、设备运维、医疗、零售等行业进一步普及。凭借更轻量化的设计、更强的 AI 本地处理能力以及更流畅的连接体验,这类设备将逐步从“尝鲜产品”转变为提升效率与安全性的“工作必需品”。

Arm 的布局方向:与生态共建“AI 无处不在”的未来

面向上述趋势,邹挺介绍,Arm 正在加速面向下一代架构与计算子系统 (CSS) 的研发投入,进一步提升平台化能力,并探索在芯粒 (Chiplet) 甚至完整 SoC 方向的业务延展可能性。

依托全球广泛的合作伙伴网络和超过 2200 万名开发者,Arm 希望与产业界一道,共同推动 AI 能力在云、边、端三个层面真正实现“无处不在”,为新一轮数字基础设施升级与智能应用创新提供更坚实的算力底座。