
星辰天合递表港交所:押注分布式 AI 存储的“第二名”和“第一家”
北京星辰天合科技股份有限公司(下称「星辰天合」)已向港交所主板递交上市申请,拟登陆资本市场。
这是一家专注企业级 AI 存储的公司:不做 GPU,不做模型,主攻 AI 时代最容易被忽略、但又几乎所有企业都必须面对的基础问题——数据如何被高效存储、管理与调度,让大模型真的跑起来、跑得起、跑得稳。
根据灼识咨询数据,按 2024 年装机量计算,中国前五大分布式 AI 存储解决方案供应商合计市占率为 52.3%。其中,星辰天合以 10.4% 的市场份额位居第二,同时也是中国最大的独立分布式 AI 存储解决方案提供商。
在 AI 基础设施被反复讨论的 2024 年,这样一家公司选择在当前时间点叩关港交所,本身就值得关注。
01 业务定位:两大产品线,直指 AI 存储核心痛点
星辰天合的定位并不复杂:
为企业提供面向 AI 场景的分布式存储系统,让企业能够在大规模 AI 应用中,既“存得下”,又“跑得动”。
公司目前两条主线产品非常清晰:
AI 数据湖存储解决方案
面向图像、视频、文档等海量非结构化数据
核心作用是整合、清洗、长期保存,为后续模型开发、训练提供统一数据底座
对应的是 AI 生命周期中的「数据积累与治理阶段」
AI 训推存储解决方案
面向 GPU 集群等高性能计算资源
在模型训练阶段,需要支撑频繁读取大规模数据集、写入 checkpoint
在推理阶段,需要高速检索与更新上下文数据
核心诉求是:高吞吐、低时延、高并发,不能拖 AI 芯片后腿
如果说 AI 数据湖解决的是“数据能不能长期存好、管好”的问题,那么 AI 训推存储解决的是“AI 芯片能不能被喂饱、能不能把性能榨干”的问题。
星辰天合选择的是这两头一起做:既打基础,又顶在前线。
02 行业背景:AI 存储是块越来越大的“硬骨头”
从市场规模来看,星辰天合所在的赛道并不算小众。
2024 年,中国 AI 基础设施市场规模约 2,176 亿元,约占全球的 15%
预计到 2030 年,将扩张至 10,991 亿元,复合年增长率 31.0%,中国占比有望提升至 25% 左右
其中,本地部署 AI 基础设施市场将从 2024 年的 1,088 亿元,增长至 2030 年的 5,770 亿元,复合增速 32.1%
在这一大盘之下,分布式 AI 存储是非常关键的一支:
2024 年,中国分布式 AI 存储市场规模约 100 亿元
2030 年预计达到 631 亿元
装机量从 2024 年的 10.3EB,提升到 2030 年的 60.5EB,年复合增速 34.3%
细分来看,目前行业结构大致如此:
2024 年按装机量计,AI 数据湖存储约占 80%,AI 训推存储约占 20%
到 2030 年,预计比例调整为 72%:28%,训推侧的占比稳步提升
存储这个传统领域,到了 AI 时代,被进一步拆分为“长期沉淀的数据湖”与“紧贴算力侧的训推存储”。星辰天合选择两条线一起切入,本质上是在押注一个更长期、更具复利效应的市场结构,而不是只做某一类短期热点产品。
03 三重“墙”:AI 训练和推理绕不开的存储难题
在 AI 基础设施里,算力是显性的,模型是显眼的,真正影响效率和成本的,往往却是存储侧那些“看不见”的瓶颈。星辰天合在招股书中,把当下企业普遍面临的问题,概括成三道“墙”:
1. 训练侧的「I/O 墙」
大模型参数量动辄百亿级,训练集群常常是上千乃至上万块 AI 芯片并行工作
芯片需要不断从存储系统中读取训练数据,并频繁写入 checkpoint
还伴随海量小文件的随机访问,极大增加元数据管理与响应压力
一旦存储跟不上,GPU 就只能“干等数据”,出现算力闲置,训练效率骤降。从结果看就是:
花了大价钱买的 GPU,真正忙碌的时间可能远低于预期。
2. 推理侧的「内存墙」
大模型推理正朝着更长上下文、更复杂交互演进
为了加速响应、减少重复计算,系统往往需要大量缓存(KV Cache 等)
这些缓存通常要放在显存中,才能保障足够的访问速度
问题在于:
显存贵、容量有限,而未来推理缓存体量只会越来越大。
如果存储系统无法承担一部分「接近缓存速度」的读写压力,企业就只能不断加显存、加卡,推理成本难以下来。
3. 数据侧的「重力墙」
企业数据分散在各业务系统:生产、研发、日志、历史归档等
原始数据和训练用高性能存储往往不在一个系统中
在不同系统之间迁移数据,成本高、耗时长,还容易造成版本、权限混乱
简单说,数据太“重”了,迁一次像搬一次家。
在大模型频繁迭代的今天,这种“搬家成本”已经成了很多企业做 AI 时的隐性支出。
星辰天合的业务逻辑,可以理解为:
通过专门为 AI 设计的分布式存储,把这三道“墙”一层层拆掉。
04 技术底座:从星海架构到 AIMesh
一家公司在分布式存储领域能走多远,很大程度上取决于核心架构和自研引擎的深度,星辰天合在这方面押了不小的筹码。
1. 星海架构:面向全闪数据中心的分布式存储
「星海架构」(XSKY 极速全共享架构)主要针对的是 NVMe 全闪时代的新瓶颈:
传统从 SATA/SAS 发展而来的系统,在 SSD 时延下降到微秒级之后,容易出现“介质很快、系统跟不上”的情况
星海架构目标是把全闪能力真正释放出来,在微秒级时延下仍能保持高并发和线性扩展
这套架构主要服务于高性能负载,是公司后续 AI 训推存储能力的基础。
2. XScale:AI 与多云时代的核心存储引擎
XScale 是星辰天合的自研存储引擎,几个关键能力比较关键:
支持 EB 级非结构化数据管理
独立元数据扩展,单桶可支持上千亿个对象
小文件聚合技术,缓解“小文件风暴”带来的性能问题
智能接入加速与企业级 QoS 控制
支持多云协作与数据生命周期管理
在 AI 数据湖和混合云数据架构中,XScale基本相当于“数据大脑”:
既要能管住数据量级,又要让数据在不同云、不同环境之间有效流转。
3. XPFS 与 AIMesh:直面 AI 时代的高性能访问需求
公司当前重点研发两个方向:
XPFS:
高吞吐、低时延且高并发的数据访问层
提供统一多协议支持
将成为 MeshFS 和 MeshFusion 产品的核心技术基础
AIMesh:
横跨 AI 数据湖存储与 AI 训推存储的统一软件定义层
由三部分构成:
MeshFS:训练侧高速数据层,用于突破 I/O 瓶颈
MeshFusion:推理记忆层,扩展大模型上下文存储能力
MeshSpace:全球 AI 数据湖,负责管理与流动海量数据集
公司在 2021 年 1 月就已经推出 MeshFS、MeshFusion 和 MeshSpace,这意味着其针对 AI 时代数据问题的布局,并非最近两年的“跟风”,而是较早就开始押注。
05 一体机产品线:从软件走向“即插即用”
在软件栈之外,星辰天合也推出了多款一体机产品,将自身分布式存储系统与计算、网络深度整合,降低客户部署门槛。
X3000 / X5000 系列:
面向主流企业环境的标准化产品线
3000 系列聚焦高性能场景
5000 系列面向容量导向型应用
Y3000 / Y5000 系列:
基于本土处理器的一体机
强调与国产 CPU、操作系统及信任堆栈的全面兼容
瞄准对“自主可控”有明确要求的客户群体
所有型号均支持其 AI 数据湖和 AI 训推存储解决方案,面向的是“开箱即用”的企业客户,尽量减少部署与运维复杂度。
06 客户结构与业绩表现:从制造到金融的深水区
从客户结构看,星辰天合已经切入了多条对数据与 AI 高度依赖的产业链。
截至 2024 年 12 月 31 日(按 2024 年收入计):
液晶面板:覆盖中国前五大厂商中的 3 家
动力电池:覆盖前十大动力电池制造商中的 3 家
光伏:覆盖前三大光伏制造商中的 2 家
在金融领域:
覆盖中国 12 家股份制银行中的 4 家
覆盖 33 家万亿资产规模银行中的 11 家
覆盖前十大寿险公司中的 4 家
这些行业有一个共同特征:
数据规模巨大、业务高度依赖稳定性与合规性,对存储系统的可靠性和性能要求极高。
从收入与盈利能力来看,公司处在从高投入期向盈利期过渡的阶段:
2023 年收入:人民币 1.668 亿元,净亏损 1.807 亿元
2024 年收入:人民币 1.725 亿元,净亏损 8,420 万元
截至 2024 年 9 月 30 日止九个月,收入 1.178 亿元,净亏损 6,550 万元
截至 2025 年 9 月 30 日止九个月,收入升至 1.949 亿元,实现净利润 810 万元
可以看到,亏损在收窄,2025 年前三季度已经转正,这是很多技术密集型企业走向成熟常见的轨迹。
研发投入方面,公司也保持了较高比例:
2023 年研发费用:人民币 1.10 亿元,占收入 65.9%
2024 年研发费用:人民币 8,800 万元,占收入 51.0%
截至 2024 年 9 月 30 日止九个月:研发费用 6,900 万元,占收入 58.6%
截至 2025 年 9 月 30 日止九个月:研发费用 5,750 万元,占收入 29.5%
研发团队规模从 2023 年的 156 人,逐步调整至 2025 年 9 月 30 日的 125 人,但仍占员工总数约四成左右,说明公司在控制成本的同时,并未削弱技术投入的核心地位。
一个值得注意的指标是:
截至 2025 年 9 月 30 日止九个月,公司的整体净收入留存率达到 141.3%。
这意味着存量客户的复购与扩容贡献较大,客户粘性和满意度处于较高水平。
从项目类型看,公司已经在几个典型 AI 场景中实现了大规模部署:
自动驾驶:覆盖从生产线数据存储到研发、路测数据处理的全流程
大模型训练:为数千至数万 GPU 集群提供高性能文件系统与混合云数据流动能力
工业 AI:深度嵌入面板、半导体等客户的生产流程
金融科技:支持建设私有知识库和企业级数据湖,服务于智能风控、智能客服等场景
07 行业位置与生态壁垒:第二大玩家的“独立性”
按 2024 年分布式 AI 存储装机量计算:
中国前五大供应商合计市占率:52.3%
星辰天合市占率:10.4%,位列第二
同时是最大的独立分布式 AI 存储解决方案供应商
“独立”在这里是一个关键点——
在算力芯片、云厂商纷纷自建存储体系的当下,星辰天合的策略是:
不绑定单一算力生态,尽量保持技术与产品的中立性,做各类 AI 集群的“公共底座”。
公司的生态布局,主要体现在三方面:
适配多算力体系
与 Nvidia、Hygon、Ascend 等不同类型 AI 芯片兼容
客户常见的混合硬件环境下,可以统一接入公司的存储解决方案
避免被锁定在某一家算力供应商体系中
云原生与“主权”并重
能与云原生环境深度融合,支持容器化、微服务架构等
同时确保数据完全由客户掌控,满足金融、制造等强监管行业的合规要求
企业可以在本地搭出“类云体验”,既有弹性,又保留对数据的绝对控制权
行业生态协作
与 Intel、AMD 等主流计算架构保持良好兼容
方便其高性能存储系统融入现有数据中心与计算集群
支持高性能数据分析等负载,提升整体数据处理效率
对后来者而言,要在短时间内复制这样一整套软硬件栈与生态关系,并不容易,这也是公司认为自己已经初步建立“生态系统壁垒”的原因之一。
08 小结:从“被忽视的基础设施”到资本市场的放大镜
从商业故事的角度看,星辰天合并不是那种一眼就能“讲出大故事”的公司——它不直接做大模型,不做炫目的 C 端应用,而是长期扎在看起来“偏重、偏硬、偏基础”的存储领域。
但在 AI 基础设施愈发被重视的当下,分布式 AI 存储的重要性,已经从幕后走向前台:
如果算力是“发动机”,那数据存储与流动就是“燃油系统”。发动机再强,油路跟不上,车也跑不起来。
从递表信息来看,这家公司有几条比较清晰的线索:
所在赛道在整个 AI 基础设施里增长确定性较强
自身在分布式 AI 存储领域已经拿到相对靠前的市场位置
长期保持高比例研发投入,逐步从亏损走向盈利
客户集中在数据与合规要求都极高的行业,验证了产品的可靠性与稳定性
接下来,星辰天合要回答的问题,就是资本市场最关心的几个:
在一个高增长但竞争渐趋激烈的赛道上,它能否守住“第二名”、拉近与第一名的距离,并真正把“最大的独立供应商”这块牌子做出持续溢价。
对于正在加速推进 AI 落地的中国企业而言,像星辰天合这样的基础设施玩家,可能不会出现在所有人视野的中心,却会在越来越多关键项目的底层悄然出现。

