检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
PyTorch1.0引擎提示“RuntimeError: std:exception” 问题现象 在使用PyTorch1.0镜像时,必现如下报错: “RuntimeError: std:exception” 原因分析 PyTorch1.0镜像中的libmkldnn软连接与原生torch
统一镜像中的安装包更齐全,详细信息可以参见推理基础镜像列表。 推荐将旧版镜像切换为统一镜像,旧版镜像后续将会逐渐下线。 待下线的基本镜像不再维护。
镜像管理 查询支持的镜像列表 根据指定条件分页查询满足条件的所有镜像。 注册自定义镜像 将用户自定义的镜像注册到ModelArts镜像管理。 查询用户镜像组列表 查询用户镜像信息概览,以镜像名称作为聚合的信息。 查询镜像详情 查询镜像详情。
基于PyTorch2.0镜像验证(本案例中镜像较大,拉取时间可能较长)。
ModelArts环境挂载目录说明 本小节介绍Notebook开发环境、训练任务实例的目录挂载情况(以下挂载点在保存镜像的时候不会保存)。
分布式训练功能介绍 ModelArts提供了如下能力: 丰富的官方预置镜像,满足用户的需求。 支持基于预置镜像自定义制作专属开发环境,并保存使用。 丰富的教程,帮助用户快速适配分布式训练,使用分布式训练极大减少训练时间。
用户的自定义镜像中的ascend相关工具不可用,导致预检失败。 处理方法 通过给训练作业加环境变量“MA_DETECT_TRAIN_INJECT_CODE”并将对应的值设置成0,就可以将预检功能关闭。环境变量说明参考查看训练容器环境变量。 父主题: Ascend相关问题
调用查询支持的镜像列表接口查看开发环境的镜像类型和版本。
当前推理基础镜像使用的python的log模块,采用的是默认的日志级别Warning,即当前只有Warning级别的日志可以默认查询出来。如果想要指定INFO等级的日志能够查询出来,需要在代码中指定logger的输出日志等级为INFO级别。
文件大小规范 当使用公共资源池时,SWR的镜像大小(指下载后的镜像大小,非SWR界面显示的压缩后的镜像大小)和OBS模型包大小总和不大于30G。
如果选择的算法是使用旧版镜像创建的,那么创建训练作业时输入输出参数的超参目录就是/work。 图3 创建算法 如果选择的算法不是使用旧版镜像创建的,那么创建训练作业时输入输出参数的超参目录就是/ma-user。 父主题: Standard模型训练
第二条命令为重新生成GRUB引导程序的配置文件,用于在启动计算机时加载操作系统, 命令将使用新安装的内核镜像更新GRUB的配置文件,以便在下次启动时加载新的内核。 父主题: Lite Server
图3 司乘安全算法 将用户本地开发完成的模型,使用自定义镜像构建成ModelArts Standard推理平台可以用的模型。具体操作请参考从0-1制作自定义镜像并创建模型。 在ModelArts管理控制台,使用创建好的模型部署为在线服务。
如果机器与容器镜像仓库不在同一区域,则上传镜像走公网链路,机器需要绑定弹性公网IP。 使用客户端上传镜像,镜像的每个layer大小不能大于10G。 上传镜像的容器引擎客户端版本必须为1.11.2及以上。 连接容器镜像服务。 登录容器镜像服务控制台。
示例场景为授权子账号权限,使其能够在开发环境Notebook中使用基础镜像构建一个新的推理镜像,并完成模型的创建,部署为在线服务。
免费资产无需支付费用,只需要支付在使用过程中消耗的硬件资源,硬件资源费用将根据实际使用情况由华为云ModelArts等管理控制台向使用方收取。 当前支持免费分享和订阅的资产类型有:Notebook代码样例、数据集、算法、模型、镜像。
当使用自定义镜像部署推理服务时,要确认镜像是否满足自定义镜像规范,否则无法成功完成推理服务的部署。 部署推理服务 登录AI Gallery。 单击“模型”进入模型列表。 选择需要部署为推理服务的模型,单击模型名称进入模型详情页。
配置SWR组织权限 IAM用户创建后,需要管理员在组织中为用户添加授权,使IAM用户对组织内所有镜像享有读取/编辑/管理的权限。 只有具备“管理”权限的账号和IAM用户才能添加授权。 登录容器镜像服务控制台。 在左侧菜单栏选择“组织管理”,单击组织名称。
注册自定义镜像 查询用户镜像组列表 查询镜像详情 删除镜像
导入模型提示该账号受限或者没有操作权限 用户创建模型时构建镜像或导入文件失败 创建模型时,OBS文件目录对应镜像里面的目录结构是什么样的?