AI容器用Serverless的方式提供算力,极大方便算法科学家进行训练和推理。
AI容器原生支持TF,Caffe,MXNET,pytorh,mindspore等主流的训练框架。
AI容器通过拓扑亲和性调度,调度任务时将GPU间网络和存储状态也考虑在内,保证GPU间高速通信,从而提升线性加速比,目前32卡GPU线性加速比为0.97+,比友商提升50%。
AI容器支持多种算力,包括昇腾算力,相比传统GPU算力提升30%。
通过使用AI容器,华为云在DAWN Bench性能评比中夺得双料冠军,128卡GPU线性加速比达到0.8。