欢迎user

近日,紫光股份旗下新华三集团正式发布AI原生存储X20000系列及XCache推理加速引擎,以极致性能、全速并发、协议互通三大核心价值,为万亿级参数大模型训推场景提供高性能、高可靠、高适配的数据供给能力,加速释放算力效能,让计算不再等待数据。
计算并不总是在“算”, 经常是在“等数据”
当前,大模型参数规模早已突破万亿级,训练数据量从TB级跃升至PB级,推理场景面临高并发、低时延、大规模用户访问的极致挑战。传统存储架构带宽不足、IOPS有限、协议单一、小文件处理低效,不仅导致GPU资源长时间空转浪费,数据预处理周期冗长,更无法支撑大模型高并发推理需求,从而形成计算并不总是在“算”, 经常是在“等数据”的情况。新华三深耕存储领域多年,精准洞察AI全流程痛点,打造X20000系列存储及XCache方案,以硬核存力释放算力潜能,为AI规模化落地筑牢底层根基。

极致性能:全速引擎,夯实 AI 训练高性能底座
本次发布的AI原生存储新品包括业界最高密度的全闪存储X20836,以及高密大容量混闪存储X20360。其中,X20836在2U空间内支持36个E3.S NVMe盘位,聚焦AI数据集读取、模型训练、高性能文件访问等极致性能场景;X20360在4U空间内支持60个3.5英寸HDD盘位,兼容最多10个2.5英寸NVMe盘位,兼顾大容量承载与数据加速,适配海量非结构化数据、数据湖、冷热分层及长期归档场景。
依托自研AI原生架构,X20000系列登顶分布式存储性能制高点,单节点提供200GB/s超高带宽、300万IOPS极致性能,从容应对TB级大文件顺序读写与亿级KB小文件随机访问混合负载,通过自研EPC高性能客户端、RoCE/IB高速网络直连技术,GPU与存储实现超低时延数据交互,实测TB级大文件处理时间从传统NFS架构20分钟缩短至20秒,训练速度提升至传统架构4.2倍,GPU训练等待时间减少30%,大幅降低算力空转损耗。此前,X20000存储产品更成功登顶MLPerf Storage v2.0基准测试RoCE AI存储解决方案的榜首,性能表现获得业界权威认可。
全速并发:XCache加速,推理效率跃升10倍
随着大模型上下文长度拓展至32KB、64KB、128KB甚至更高,KV Cache规模线性增长,推理场景面临首Token时延高、并发承载弱、算力成本高昂等痛点。新华三XCache推理加速方案与X20000深度融合,以"以存换算"为核心,构建全速推理引擎。
XCache通过KV Cache多级缓存卸载、原生KV接口、零拷贝、GDS直通、KV稀疏化算法五大核心技术,打通GPU、本地内存、SSD、X20000存储、CXL内存池全链路加速,大幅缩短Token访问路径。实测数据显示,KV数据卸载至X20000后,首Token延迟(TTFT)降低90%、性能最大优化10倍;轻松支撑百万级高并发推理场景,适配智能客服、代码助手、知识问答、行业智能体等应用,带来更快响应与更高并发。
协议互通:无损流转,缩短 AI 数据准备周期
AI数据链路复杂、类型多样,多协议频繁迁移易损耗效率、影响性能。X20000系列创新实现块、文件、对象、HDFS四协议互通,一套存储承载全类型数据,同一份数据支持多协议同时访问,语义无损、性能无损,彻底打破数据孤岛。
从数据收集、脱敏、标注到预训练、微调、成果发布,X20000实现全链路数据无损流转,无需额外迁移转换,数据准备时间减少35%,大幅缩短AI项目上线周期。针对AI高频亿级KB级小文件,支持秒级预热,提前加载热点数据至高速介质,满足训推即时访问需求;搭载热、温、冷三级智能存储架构,基于数据热度自动双向迁移,内网数据流动不占用业务带宽,兼顾高性能与低成本。采用32+2超大比例纠删码技术,可用容量高达94%,全闪、混闪双形态灵活部署,构建PB级低成本数据湖,从容应对海量数据爆发式增长。
新华三将持续深耕 AI 存储技术创新,不断优化性能、丰富生态、拓展场景,深化与超节点、网络、软件的全栈协同,携手产业链伙伴,共建开放、高效的 AI存力生态,以硬核技术赋能百行百业智能化升级,为数字经济高质量发展注入源源不断的算力与存力动能。

