AI开发平台MODELARTS-FLUX.1基于DevServer适配PyTorch NPU推理指导(6.3.909):步骤二:启动镜像

时间:2024-12-17 18:07:05

步骤二:启动镜像

启动容器镜像,推理只需要启动单卡,启动前可以根据实际需要增加修改参数。
export work_dir="自定义挂载的工作目录"
export container_work_dir="自定义挂载到容器内的工作目录"
export container_name="自定义容器名称"
export image_name="镜像名称或ID"
// 启动一个容器去运行镜像 
docker run  -itd --net=bridge \
    --device=/dev/davinci0 \
    --device=/dev/davinci_manager \
    --device=/dev/devmm_svm \
    --device=/dev/hisi_hdc \
    --shm-size=60g \
    -p 8585:8585 \
    -v /usr/local/dcmi:/usr/local/dcmi \
    -v /usr/local/Ascend/driver:/usr/local/Ascend/driver \
    -v /var/log/npu/:/usr/slog \
    -v /usr/local/sbin/npu-smi:/usr/local/sbin/npu-smi \
    -v ${work_dir}:${container_work_dir} \
    --name ${container_name} \
    ${image_name} \
    /bin/bash

参数说明:

  • --name ${container_name}:容器名称,进入容器时会用到,此处可以自己定义一个容器名称。
  • --device=/dev/davinci0:挂载NPU设备,该推理示例中挂载了1张卡davinci0。
  • -p 8585:8585:映射端口号,用户可自定义未被占用的端口号。
    • driver及npu-smi需同时挂载至容器。
    • 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。
support.huaweicloud.com/bestpractice-modelarts/modelarts_aigc_flux_9091.html