
2025年8月26日,“嵌入式AI、边缘智能与AIoT生态会议”在深圳会展中心举行,由电子发烧友网与 elexcon 2025 深圳国际电子展联合主办。现场话题聚焦算力需求激增、能效优化与技术快速迭代等行业痛点。MPS、安谋科技(Arm China)、Imagination Technologies、长江存储等企业分享了各自在电源、处理器与软件栈、GPU/AI加速与嵌入式存储方面的最新进展。
MPS:高密度电源模块为AI算力“打底”
MPS 战略客户现场应用工程师经理郑秀聪分享了面向数据中心与高性能计算的电源方案思路:通过新型电源架构与智能控制,提升转换效率与稳定性,以匹配AI系统对高电流、高动态响应的需求。
第三代智能电源模块(如 MPC22158)
双相设计,电流密度约 1.6 A/mm²,输入 3–16 V
持续输出能力:约 130A(EDC),短时 100A(TDC)
精细化感知:电流检测约 5 μA/A,温度灵敏度约 8 mV/℃
保护完善:过流、过温
封装参考:约 8×8×4 mm
第四代模块(如 MPC24380)
多相并联与输出电容集成,电流密度提升至约 2 A/mm²
四相智能模块,功率密度更高,适配高性能AI硬件
封装参考:约 9×10×5 mm
通过封装与架构简化,加快设计迭代与量产导入
要点小结:在AI供电路径中,提升密度与感知精度、降低损耗,是支撑大算力与高可靠的关键抓手。
安谋科技(Arm):面向边缘AI的软件栈与算力底座
安谋科技资深嵌入式市场经理范子莹以“Edge AI 软件栈”切入,强调从端点AI到边缘AI的能力扩展,软硬协同是核心。
处理器与NPU版图
Cortex-M/Cortex-A 系列、Ethos-U NPU、Corstone 子系统等覆盖从MCU到应用级SoC
典型应用:图像分类、关键词检测等端侧场景
A320 面向IoT优化
相较前代,功耗效率提升约 50%,总体性能提升约 30%
端侧机器学习性能提升可达约 10 倍
Armv9 Edge AI Platform
以 Armv9.2-A 计算、安全与ML为核心,强调可扩展效率与安全增强
组合 Cortex-A320 与 Ethos-U85,可运行超十亿参数级模型
完整软件栈贯穿应用至硬件,降低开发与部署门槛
要点小结:以统一指令集与成熟生态为底座,叠加轻量NPU与安全能力,推动更复杂模型在边缘高效落地。
Imagination Technologies:GPU深度嵌入式AI加速,迈向“物理AI”
Imagination Technologies 资深市场拓展经理黄音认为,AI正在从感知与生成式迈向“代理+物理AI”。模型侧的稀疏化、MOE、混合精度与内存优化,正在牵引硬件架构演进,使终端部署大模型成为可能。
新一代 GPU IP 与 E 系列神经核心
面向边缘的可编程图形与AI协同加速
E 系列神经核心 INT8 AI 性能最高可达约 200 TOPS
能效优化:AI操作速度显著提升,单位面积 TOPS 提升,平均功率效率提升约 35%
深度嵌入式集成:与GPU ALU/USC共享寄存器与SRAM,数据就近处理,降低搬运开销
生态兼容:支持 OpenCL、Vulkan 计算扩展
应用示例:AI增强超分辨率、高级图形效果加速,覆盖汽车、智能手机、AI PC 等
要点小结:通过“算力贴近数据”的架构与多精度支持,在保持图形能力的同时释放AI吞吐,服务下一代边缘智能终端。
长江存储:以灵活高效的嵌入式存储支撑端侧AI
长江存储市场资深总监范曾绪指出,AI带动的存储需求快速增长,终端设备在低功耗、隐私本地化、离线可用与毫秒级响应方面的诉求愈加明确。
架构与工艺
晶栈 Xtacking 技术迭代至 4.0,通过 CMOS-Array 混合键合,实现工艺解耦并提升 IO 速度
代表性产品
UFS 2.2 嵌入式闪存(如 UC260)
容量可至 512GB,性能较前代提升约 50%,能效提升约 20%
eMMC 5.1(如 EC150)
多 Plane 并行读取,4K 随机读性能优化,耐久与兼容性表现稳健
场景覆盖
主流手机、学习机、平板、智能电视等多类终端,满足“高算力+高存力”的协同需求
要点小结:以先进堆叠与控制器调优,兼顾容量、带宽与能效,为端侧AI提供稳定的数据底盘。
观察与趋势
算力与能效双轮驱动:电源、处理器、NPU、GPU与存储均围绕“更强算力/更低能耗/更小延迟”迭代。
架构靠近数据:从电源到算子执行、到存储IO,普遍强调“就近计算”“减少搬运”的系统优化。
生态与软件栈决定落地速度:统一指令集、标准化API与完整工具链,显著压缩开发到商用的路径。
端侧智能更可持续:隐私、本地推理与离线可用成为产品设计的默认选项。