检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
从0制作自定义镜像用于创建训练作业(MindSpore+Ascend) 训练框架的自定义镜像约束 推荐自定义镜像使用ubuntu-18.04的操作系统,避免出现版本不兼容的问题。 自定义镜像的大小推荐15GB以内,最大不要超过资源池的容器引擎空间大小的一半。镜像过大会直接影响训练作业的启动时间。
出现内存溢出的情况,用户可参考表2进行配置。 图2 选择资源池规格 新增SFS Turbo挂载配置,并选择用户创建的SFS Turbo文件系统。 云上挂载路径:输入镜像容器中的工作路径 /home/ma-user/work/ 存储位置:输入用户在Notebook中创建的“子目录挂载”
出现内存溢出的情况,用户可参考表2进行配置。 图2 选择资源池规格 新增SFS Turbo挂载配置,并选择用户创建的SFS Turbo文件系统。 云上挂载路径:输入镜像容器中的工作路径 /home/ma-user/work/ 存储位置:输入用户在Notebook中创建的“子目录挂载”
解决方法 打开VS Code,选择“Help>About”,并记下“Commit”的ID码。 确认创建Notebook实例使用的镜像的系统架构,可以在Notebook中打开Terminal,通过命令uname -m查看。 下载对应版本的vscode-server,根据Comm
sudo systemctl --now enable docker 安装NIVDIA容器插件。 distribution=$(. /etc/os-release;echo $ID$VERSION_ID) && curl -fsSL https://nvidia.github.io
使用自定义镜像功能,通过torch.distributed.run命令启动训练的启动文件 torch_ddp.py内容如下: import os import torch import torch.distributed as dist import torch.nn as nn import
read(img_path), np.uint8), 1) 在MXNet环境下使用torch包,请您尝试如下方法先进行导包: import os os.sysytem('pip install torch') import torch 父主题: OBS操作相关故障
3 打印如下信息,表示上传镜像成功。 图7 成功上传镜像 Step8 注册镜像 镜像上传至SWR成功后,在ModelArts控制台的“镜像管理”页面中单击“注册镜像”。 图8 在ModelArts控制台注册镜像 在镜像源中,选择上一步中上传到SWR自有镜像仓中的镜像名,作为模型推
3 打印如下信息,表示上传镜像成功。 图7 成功上传镜像 Step8 注册镜像 镜像上传至SWR成功后,在ModelArts控制台的“镜像管理”页面中单击“注册镜像”。 图8 在ModelArts控制台注册镜像 在镜像源中,选择上一步中上传到SWR自有镜像仓中的镜像名,作为模型推
port是否正常打开,SFS Turbo所需要入方向的端口号为111、445、2049、2051、2052、20048,具体请参见创建文件系统的“安全组”参数。Cloud Shell功能的操作指导请参见使用CloudShell登录训练容器。 是,则修改安全组的配置,具体操作请参见修改安全组规则。
', type=str, default=os.path.join(file_dir, 'input_dir')) parser.add_argument('--output_dir', type=str, default=os.path.join(file_dir, 'output_dir'))
使用专属资源池进行训练时,支持挂载多个弹性文件服务SFS Turbo。用于存储模型训练的代码及输入输出数据。 具体费用可参见弹性文件服务价格详情。 按需计费 包年/包月 按文件系统所占用的存储空间容量和使用时长收费 存储空间费用=每GB费率*存储容量*使用时长 事件通知(不开启则不计费) 订阅消息使用消息通知服务,在
3 打印如下信息,表示上传镜像成功。 图6 成功上传镜像 Step8 注册镜像 镜像上传至SWR成功后,在ModelArts控制台的“镜像管理”页面中单击“注册镜像”。 图7 在ModelArts控制台注册镜像 在镜像源中,选择上一步中上传到SWR自有镜像仓中的镜像名,作为模型推
TEXT Training job framework version. --workspace-id TEXT The workspace where you submit training job(default "0") --policy
处理方法 将requirements.txt中的Unidecode改为unidecode。 建议与总结 您可以在训练代码里添加一行: os.system('pip list') 然后运行训练作业,查看日志中是否有所需要的模块。 父主题: 业务代码问题
1:8080/${推理服务的请求路径} 推理部署示例 本节将详细说明以自定义引擎方式创建AI应用的步骤。 创建AI应用并查看AI应用详情 登录ModelArts管理控制台,进入“AI应用”页面中,单击“创建应用”,进入AI应用创建页面,设置相关参数如下: 元模型来源:选择“从对象存储服务(OBS)中选择”。
s所在区域、填写AK、SK(获取方式参考链接),然后单击“OK”完成登录。 “Region”:从下拉框中选择区域。必须与ModelArts管理控制台在同一区域。 “Project”:Region选择后,Project自动填充为Region对应的项目。 “Access Key ID”:填写访问密钥的AK。
根据错误信息判断,报错原因为训练作业运行程序读取不到GPU。 处理方法 根据报错提示,请您排查代码,是否已添加以下配置,设置该程序可见的GPU: os.environ['CUDA_VISIBLE_DEVICES'] = '0,1,2,3,4,5,6,7' 其中,0为服务器的GPU编号,可
runtime没有找到。 处理方法 建议您按以下步骤排查处理: 确认部署在线服务时是否选择了GPU规格。 在customize_service.py中添加一行代码os.system('nvcc -V)查看该镜像的cuda版本(customize_service.py编写指导请见模型推理代码编写说明)。
1:8080/${推理服务的请求路径} 推理部署示例 本节将详细说明以自定义引擎方式创建AI应用的步骤。 创建AI应用并查看AI应用详情 登录ModelArts管理控制台,进入“AI应用”页面中,单击“创建应用”,进入AI应用创建页面,设置相关参数如下: 元模型来源:选择“从对象存储服务(OBS)中选择”。