大模型集合通信介绍
Author by: SingularityKChen
在 AI 系统中,计算算子和通信算子是两类核心操作。计算算子映射到 AI 芯片上实现。而通信算子的实现是硬件互连技术、软件通信库和系统优化策略共同作用的结果。当单个 AI 芯片无法满足大模型的时候,通信算子的性能直接决定了分布式 AI 训练的扩展效率,是构建大规模 AI 系统的核心环节。
本系列课程将从通信算法、通信链路、通信原语和通信域管理四个维度展开讲解,从而帮助读者理解集合通信如何影响 AI 基础设施的软硬件系统、AI 训练算法甚至 AI 模型的架构。
集合通信概览
在集合通信概览中,我们将介绍通信的四个特征:通信算法、通信链路、通信操作(原语)、和通信域管理。
- 通信算法:针对同一个通信算子,随着网络拓扑、通信数据量、硬件资源等的不同,往往会采用不同的通信算法,从而最大化集群通信性能。
- 通信链路:承载集合通信的物理链接以及拓扑结构。
- 通信操作:通信操作也被称为通信原语。通信原语包含点对点操作和集体操作。
- 通信域管理:通信域是集合通信算子执行的上下文,管理对应的通信对象(例如一个 NPU 就是一个通信对象)和通信所需的资源。通信域中的每个通信对象称为一个 rank,每个 rank 都会分配一个介于 0~n-1(n 为 npu 的数量)的唯一标识。
下表总结了华为 HCCL 和英伟达 NCCL 集合通信库上述四个通信特征。
| 通信特性 | HCCL | NCCL |
|---|---|---|
| 通信算法 | ring/mesh + ring/Hav-Doub/Pair-Wise,etc. | ring + Tree ring,etc. |
| 通信链路 | 灵渠总线 / PCIE | NVLink / NVSwitch / GPU-Direct / PCIE |
| 通信操作 | allreduce、broadcast、reduce、reduce scatter、allgather、all2all、send、recv | allreduce、broadcast、reduce、reduce scatter、allgather、all2all、send、recv |
| 通信域管理 | 全局通信域、子通信域、基于全局/子通信域配置算法 | 全局通信域、子通信域、自定义通信域配置算法 |
集群硬件概览
在了解大模型集合通信基础内容后,我们将从集合通信的硬件组成情况进行介绍。这部分将会从芯片内通信到集群间通信两个层次进行介绍其硬件组成。
芯片-服务器
这一部分内容将介绍芯片内 die 间互联的硬件组成及其发展趋势,以及一个服务器(1U)内通信相关硬件模块。
下图是英伟达 DGX-2 系统,其标注内容如下:
- 16 个全连接的 Tesla V100 GPU 核心,构成 1.92 PFLOPS 的总算力、512 GB HBM2 显存;
- 双 GPU 基板互联(NVLINK Plane Card);
- 12 组 NVSwith,提供 2.4 TB/s 对分带宽;
- 8 路 EDR InfiniBand (IB) 或 100 GigE 接口,提供 1600 Gb/s 的低延迟总双向带宽;
- PCIe 交换机模块
- 2 块英特尔 Xeon Platinum CPU 芯片
- 1.5 TB 系统内存
- 30 TB NVME SSD 缓存
- 2 高速以太网网卡
组网-集群互联
这部分内容将会介绍 rank 之间和集群之间的组网和集合通信相关内容。
业界集合通信库
了解通信的硬件组成后,我们再来学习业界的集合通信库。这部分内容将从以下三个部分进行介绍:
NCCL 实现细节
NCCL 是大模型时代应用最为广泛的集合通信库之一。我们将从以下三个角度仔细介绍和剖析 NCCL:
- NCCL 架构图及其对应 GPU 的拓扑逻辑
- Tree All Reduce 算法
- NCCL 架构优缺点与思考




