AI开发平台MODELARTS-准备推理环境:步骤六:进入容器
步骤六:进入容器
- 进入容器。
docker exec -it -u ma-user ${container_name} /bin/bash
- 评估推理资源。运行如下命令,返回NPU设备信息可用的卡数。
npu-smi info # 启动推理服务之前检查卡是否被占用、端口是否被占用,是否有对应运行的进程
如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装固件和驱动,或释放被挂载的NPU。
驱动版本要求是23.0.6。如果不符合要求请参考安装固件和驱动章节升级驱动。启动后容器默认端口是8080。
- 配置需要使用的NPU卡为容器中的第几张卡。例如:实际使用的是容器中第1张卡,此处填写“0”。
export ASCEND_RT_VISIBLE_DEVI CES =0
如果启动服务需要使用多张卡,则按容器中的卡号依次编排。例如:实际使用的是容器中第1张和第2张卡,此处填写为“0,1”,以此类推。
export ASCEND_RT_VISIBLE_DEVICES=0,1
可以通过命令npu-smi info查询NPU卡为容器中的第几张卡。例如下图查询出两张卡,如果希望使用第一和第二张卡,则“export ASCEND_RT_VISIBLE_DEVICES=0,1”,注意编号不是填4、5。图1 查询结果启动推理服务的具体操作步骤请参见启动推理服务。
- ModelArts推理部署_纳管Atlas 500_边缘服务-华为云
- ModelArts模型训练_创建训练作业_如何创建训练作业
- ModelArts推理部署_模型_AI应用来源-华为云
- CCI云容器实例环境配置_华为云CCI_云容器实例
- ModelArts计费说明_计费简介_ModelArts怎么计费
- ModelArts是什么_AI开发平台_ModelArts功能
- ModelArts模型训练_模型训练简介_如何训练模型
- 华为云ModelArts_ModelArts开发_AI全流程开发
- ModelArts推理部署_AI应用_部署服务-华为云
- ModelArts自动学习是什么_自动学习简介_零代码完成AI开发