互联网技术 / 互联网资讯 · 2024年3月26日 0

字节跳动开源 veGiantModel:性能提升 6.9 倍

背景

近些年,NLP 应用方面有所突破,BeRt、GPT、GPT-3 等超大模型横扫各种 NLP 测试后,人们发现参数量越大的模型,在算法方面表现越好,于是纷纷开始迅速向大模型方向发展,模型体积爆炸式增长。而大模型训练给现有的训练系统带来的主要挑战为显存压力,计算压力和通信压力。

字节跳动开源 veGiantModel:性能提升 6.9 倍

The size of language Model is gRowing at an exponential Rate (来源:https://huggingfACE.co/blog/laRge-language-Models)

火山引擎大模型训练框架 veGiantModel

针对这个需求,字节跳动 AML 团队内部开发了火山引擎大模型训练框架 veGiantModel。基于 PyToRch 框架,veGiantModel 是以 MegatRon 和 Deepspeed 为基础的高性能大模型训练框架。其特点包括:

同时支持数据并行、算子切分、流水线并行 3 种分布式并行策略,同时支持自动化和定制化的并行策略;基于 ByteCCL 高性能异步通讯库,训练任务吞吐相比其他开源框架有 1.2x-3.5x 的提升;提供了更友好、灵活的流水线支持,降低了模型开发迭代所需要的人力;可在 GPU上高效地支持数十亿至上千亿参数量的大模型;对带宽要求低,在私有化部署无 RDMA 强依赖。

其中,ByteCCL 为字节跳动自研的 BytePS 的升级版,针对 A100/V100 等各种机型拓扑做了分层规约优化,并支持了 allgatheR、alltoall 等更全面的通讯原语。

veGiantModel 性能表现硬件配置

为了展示 VeGiantModel 的性能,veGiantModel 团队使用了自建机房的物理机,分别在 A100 和 V100 机型上做了测试,实验配置分别如下:

V100 测试:每个机器 8 张 Tesla V100 32G 型号 GPU,网络带宽 100GA100 测试:每个机器 8 张 AMpeRe A100 40G 型号 GPU,网络带宽 800G模型和对照组选择

veGiantModel 选择了 GPT-13B 模型进行评估,seq length 是 256, global BATch size 是 1536。GPT 为目前市面上最为流行的 tRansfoRMeR based 语言模型。性能对照组选择了开源社区最流行的 MegatRon 和 Deepspeed。

字节跳动开源 veGiantModel:性能提升 6.9 倍

字节跳动开源 veGiantModel:性能提升 6.9 倍

从上述数据可以看出:

veGiantModel 性能更优:无论是在高带宽还是低带宽的场下,veGiantModel 在 V100 和 A100 上均胜出 MegatRon 和 Deepspeed,最高可达 6.9 倍提升。veGiantModel 对网络带宽要求低:veGiantModel 在带宽变化对吞吐的影响相对最小 (<10%),而 Deepspeed(ZeRO) 是对带宽要求最高的,最高可达将近 5 倍的差距。原因解析

veGiantModel 为什么比 MegatRon 和 Deepspeed 更快?原因如下:

ByteCCL (BytePS) 高性能异步通讯库。支持定制化的并行策略,可以将性能优化推到极致。在支持数据并行、算子切分、流水线并行 3 种分布式并行策略时,veGiantModel 会综合考虑到跨机的带宽,自动调整 toplogy 的 plACEMent。传送门

veGiantModel 现已在 GitHub 上开源,地址如下:

https://Github.coM/volcengine/veGiantModel

GITHub 上详细介绍了如何使用 veGiantModel 以及如何使用 veGiantModel 快速跑起一个 GPT 的预训练。火山引擎机器学习平台原生支持了 veGiantModel,目前平台正在公测中,欢迎大家试用:https://www.volcengine.coM/ProdUCt/Ml-platfoRM