大旗号
科技 汽车 财经 数码 时尚 旅游 美文 美食 其它

字节攻克MoE关键瓶颈,训练成本再砍40%!内部万卡集群已部署

ITBEAR科技资讯 2025-03-10

3 月 10日,字节豆包大模型团队官宣开源一项针对 MoE 架构的关键优化技术,可将大模型训练效率提升1.7倍,成本节省40%。据悉,该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万 GPU 小时训练算力。

MoE 是当前大模型的主流架构,但其在分布式训练中存在大量跨设备通信开销,严重制约了大模型训练效率和成本。以海外主流模型Mixtral-8x7B为例, 其训练过程中通信时间占比可高达 40%。针对这一难题,字节在内部研发了COMET计算-通信重叠技术,通过多项创新,大幅压缩了MoE专家通信空转时间。

相较DeepSeek近期开源的DualPipe等MoE优化方案,COMET可以像插件一样直接接入已有的MoE训练框架,支持业界绝大部分主流大模型,无需对训练框架进行侵入式改动。因简洁、通用的设计理念,该工作以5/5/5/4 的高分入选全球机器学习系统顶级会议 MLSys 2025 ,被认为“在大规模生产环境中极具应用潜力”。

具体而言, COMET 从系统层面建立了面向 MoE 的细粒度流水线编程方式,通过引入共享张量依赖解析、自适应负载分配两项关键机制,来解决通信与计算之间的粒度错配问题,并精准平衡通信与计算负载,最终大幅提升MoE流水线整体效率。 引入COMET后,单个 MoE 层上可实现 1.96 倍加速、端到端平均 1.71 倍效率提升,且在不同并行策略、输入规模及硬件环境下均表现稳定。

截屏2025-03-10 16.30.30

COMET 的设计结构

值得一提的是,COMET 与Deepseek 研发的DualPipe方案还可以联合使用。在降低MoE通信开销上,COMET 采用了计算-通信融合算子的优化方式, DualPipe则通过排布算子来掩盖通信,两种方案并不冲突,结合使用或将更大幅度压缩模型训练成本。

目前,COMET支持多种MoE并行模式,部署灵活、方便。同时,COMET核心代码已开源,并向开发者提供了一套友好的 Python API,计划兼容 Triton 等编译生态。

COMET论文链接:https://arxiv.org/pdf/2502.19811

开源地址:https://github.com/bytedance/flux


百果园和钟薛高,跌在同一个坑里
前车之鉴,后车重蹈覆辙

2025-08-12

韩国DEEPX携手百度飞桨打造边缘AI新方案,共探技术融合新模式
汉城, Aug. 11, 2025 (GLOBE NEWSWIRE) -- DEEPX成立于2018年,总部位于韩国京畿道城南市,是一家专注于人工智能和物联网技术的韩国公司,致力于开发高性能AI半导体和计算解决方案的底层技术,使所有电子设备实现智能化。其产品组合拥有370项专利,被《EE Tim

2025-08-12

Snail Games 旗下子公司 Interactive Films 推出全新恋爱模拟游戏
卡尔弗城,加利福尼亚州, Aug. 08, 2025 (GLOBE NEWSWIRE) -- 全球领先的互动数字娱乐领域独立开发商与发行商Snail, Inc. (Nasdaq:SNAL,以下简称 “Snail Games” 或“公司”)正式宣布推出《The Fame Game: Welcome to Hollywood》这款由其子公司 Interacti

2025-08-11