近日,全球首个无线缆箱式超节点scaleX40问世,引起AI算力市场广泛关注。某头部互联网大厂认为,当前用户既需要巅峰算力进行前沿探索,也需要从小规模起步验证技术路线。这款40卡超节点是基于“大算力”同架构下的中小规模方案,为用户提供了更好的起点。
据悉,scaleX40基于系统级创新和“甜点”规格设计,不仅有效破解了高端算力部署难题,还向众多中小企业释放出三个关键词:买得起、用得上、用得好。
所谓“买得起”,是指scaleX40成功将超节点采购成本拉至千万级区间,并且通过无线缆正交架构与19英寸标准箱式设计,大大降低了企业部署难度,让绝大部分用户都能入手。
此前,传统超节点需要复杂的机房改造、大量的线缆布设与专业运维团队支持,部署周期较长,成本动辄过亿。scaleX40的计算节点与交换节点通过背板直接对插,彻底取消了板间线缆,用户只需将设备推入标准机柜,即可在几小时内完成部署,确实属于入门级超节点神器。
第二个关键词“用得上”,特指此次产品创新瞄准了主流AI计算场景需求。尽管scaleX40的价格几乎降低至传统8卡服务器级别,但该款超节点内置40张AI加速卡,总算力超过28 PFLOPS(FP8精度),HBM总显存超5TB,访存带宽超80TB/s。
客观来看,40张卡通过一级Scale-Up全互连,支持内存语义与统一显存编址,确实基本满足了千亿级模型的训推需求。这在大部分企业级用户中都达到了“够用”标准。
重点在于第三个关键词。作为一款高端算力普惠化产品,scaleX40超节点注定将在主流市场触达很多新客群。尤其对于缺乏运维开发经验的用户,能不能“用得好”这款产品至关重要。
可以看出,翻过采购成本和部署难度两道门槛后,中科曙光在scaleX40的场景化应用上进行了重点考量:
1)配套“懂AI”的存力底座:scaleX40超节点配备了ParaStor存储系统,基于存算网三级强协同,训推效率、带宽、算力利用率显著提升。智能数据管理模块支持集群内冷热数据无感迁移、跨集群数据流动,并且可为超节点提供专属AI数据工厂。
2)开发/调度/运维一站式设计:基于配套的SothisAI平台,用户可以一站式搞定超节点运维管理和大模型&智能体开发,实现模型训推全链路闭环,高效集成智能体应用,且支持自动断点续训、故障智能隔离、业务无感恢复等,让用户真正做到一键部署、开箱即用。
3)单Pod+双Pod灵活扩展:针对不同用户的业务发展需求,该产品支持纵向Scale-up扩展和横向Scale-out扩展。用户可以基于scaleX40单元,通过二级互连构建数百卡超节点,也能通过scaleFabric无损网络构建万卡集群,满足业务全生命周期应用需求。
根据中科曙光方面的定义,scaleX40的意义不止于性能提升,更在于重构算力交付逻辑,推动算力从“工程化建设”走向“产品化供给”。尤其考虑到该厂商此前连续推出scaleX640超节点、scaleX万卡超集群,此次新一代scaleX40明显是其高端算力普惠战略的重要延续。
对于潜在用户而言,scaleX40的升级版本已经给出场景实践参考。比如在scaleX640应用中,某头部AI大模型厂商通过自动调优实现了优于专家的并行优化策略,从头预训练的Loss曲线甚至可与英伟达保持一致,扩展效率达到惊人的99.63%。
该厂商负责人透露,接下来公司计划通过曙光超节点,实现更大规模的高效端到端训练和推理部署,尤其在大规模高效PD分离方面,双方将继续深化合作,充分释放超节点算力效能。
见微知著,从同系列终端实践成果到新一代超节点的全栈配套能力支持,曙光超节点在“用”之一字上颇见功力。至于scaleX40能打动多少企业级用户,就要在后续产品交付中见分晓了。




