7.6. 总结

  • 大型机器学习模型的出现带来了对于算力和内存需求的快速增长,催生了分布式训练系统的出现。

  • 分布式训练系统的设计往往遵循”分而治之”的设计思路。

  • 利用分布式训练系统,人们可以显著提升性能,经济性,并且帮助抵御硬件故障。

  • 分布式训练系统可以通过数据并行增加设备来提升算力。

  • 当单节点内存不足时,我们可以通过模型并行来解决单设备内存不足。模型并行有两种实现方式:算子内并行和算子间并行。

  • 大型模型并行系统容易出现设备使用空洞,而这种空洞可以通过流水线并行解决。

  • 分布式训练系统往往运行在商用数据中心之中,数据中心网络无法提供充足的网络带宽来传输大量训练中生成的梯度。

  • 为了提供海量的带宽,机器学习集群拥有异构的网络:以太网,机内网络(NVLink)和InfiniBand。

  • 为了解决单节点瓶颈,我们可以使用Allreduce来分摊梯度聚合过程中的计算和通讯开销。

  • 参数服务器可以帮助机器学习集群实现计算-存储的分离,从而更好的支持大型稀疏模型。

  • 参数服务器常用数据副本技术解决数据热点问题,同时它们也可以被用来解决同步训练系统中常见的掉队者问题。

7.7. 扩展阅读

7.8. 参考文献