AI开发平台ModelArts-分布式训练功能介绍:相关章节

时间:2025-02-12 15:11:51

相关章节

  • 创建单机多卡的分布式训练(DataParallel):介绍单机多卡数据并行分布式训练原理和代码改造点。
  • 创建多机多卡的分布式训练(DistributedDataParallel):介绍多机多卡数据并行分布式训练原理和代码改造点。
  • 示例:创建DDP分布式训练(PyTorch+GPU):提供了分布式训练调测具体的代码适配操作过程和代码示例。
  • 示例:创建DDP分布式训练(PyTorch+NPU):针对Resnet18在cifar10数据集上的分类任务,给出了分布式训练改造(DDP)的完整代码示例,供用户学习参考。
  • 基于开发环境使用SDK调测训练作业:介绍如何在ModelArts的开发环境中,使用SDK调测单机和多机分布式训练作业。
support.huaweicloud.com/usermanual-standard-modelarts/modelarts-distributed-0001.html