检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
已存在部署完成的服务。 已完成模型调整,创建模型。 操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“部署上线 > 在线服务”,默认进入“在线服务”列表。 在部署完成的目标服务中,单击操作列的“修改”,进入“修改服务”页面。 在选择模型及配置中,单击“增加模型版本进行灰度发布”添加新版本。
配置Standard专属资源池可访问公网 场景介绍 当您使用专属资源池创建作业时(如训练作业),如果需要作业运行过程中需要专属资源池访问外网,可打通VPC的方式,使得专属资源池和已绑定EIP的弹性云服务器处于同一VPC内,实现专属资源池访问外网。 前提条件 已拥有需要部署SNAT的弹性云服务器。
在ModelArts中同一个账户,图片展示角度不同是为什么? 在ModelArts中智能标注完成后新加入数据需要重新训练吗? 在ModelArts中如何将图片划分到验证集或者训练集? 在ModelArts中物体检测标注时能否自定义标签? ModelArts数据集新建的版本找不到怎么办? 如何切分ModelArts数据集?
description可选填 # 通过JobStep来定义一个训练节点,输入数据来源为OBS,并将训练结果输出到OBS中 job_step = wf.steps.JobStep( name="training_job", # 训练节点的名称,命名规范(只能包含英文字母、数字、下划线
用户通过OBS导入模型时,选择使用基础镜像,用户自己编写了部分推理代码实现自己的推理逻辑,出现故障后希望通过故障日志排查定位故障原因,但是通过logger打印日志无法在“在线服务”的日志中查看到部分内容。 原因分析 推理服务的日志如果需要显示出来,需要代码中将日志打印到Console控制台。当前推理基础镜像使用
业务场景 依赖的服务 委托授权项 说明 配置建议 在线服务 LTS lts:groups:create lts:groups:list lts:topics:create lts:topics:delete lts:topics:list 在线服务配置LTS日志上报。 按需配置。 批量服务
将AI Gallery中的模型部署为AI应用 AI Gallery支持将模型部署为AI应用,在线共享给其他用户使用。 前提条件 选择的模型必须是支持部署为AI应用的模型,否则模型详情页没有“部署 > AI应用”选项。 部署AI应用 登录AI Gallery。 单击“模型”进入模型列表。
WorkflowStep objects 工作流节点。 表3 DataRequirement 参数 是否必选 参数类型 描述 name 是 String 训练数据的名称。填写1-64位,仅包含英文、数字、下划线(_)和中划线(-),并且以英文开头的名称。 type 是 String 数据来源类型。枚举值如下:
历史API 数据管理(旧版) 开发环境(旧版) 训练管理(旧版)
存需求增多。 处理方法 在部署或升级在线服务时,选择更大内存规格的计算节点。 图3 选择计算节点规格 运行中服务出现告警时,需要分析是您的代码是否出现漏洞导致内存溢出、是否因为业务使用量太大需要更多的内存。如果因业务原因需要更多内存,请升级在线服务选择更大内存规格的计算节点。 父主题:
单击新建的模型名称左侧的小三角形,展开模型的版本列表。在操作列单击“部署 > 在线服务”,跳转至在线服务的部署页面。 在部署页面,参考如下说明填写关键参数。 “名称”:按照界面提示规则自定义一个在线服务的名称,也可以使用默认值。 “资源池”:选择“公共资源池”。 “模型来源”和
"application/json" } } ] 将模型部署为在线服务 参考部署为在线服务将模型部署为在线服务。 在线服务创建成功后,您可以在服务详情页查看服务详情。 您可以通过“预测”页签访问在线服务。 图5 访问在线服务 父主题: Standard推理部署
举例,如果用户需要用OBS中的数据进行训练,当已经为IAM用户配置ModelArts训练权限时,仍需同时为其配置对应的OBS权限(读、写、列表),才可以正常使用。其中OBS的列表权限用于支持用户从ModelArts界面上选择要进行训练的数据路径;读权限主要用于数据的预览以及训练任务执行时的数据读取;写权限则是为了保存训练结果和日志。
ratio_sample_usage 否 Boolean 指定切分比例后,是否按指定比例随机分配训练-验证集。可选值如下: true:主动随机分配训练集-验证集 false:不主动随机分配训练集-验证集(默认值) sample_state 否 String 样本状态。可选样本状态如下:
Standard开发环境 将Notebook的Conda环境迁移到SFS磁盘 使用ModelArts VSCode插件调试训练ResNet50图像分类模型
ModelArts支持的预置镜像列表 ModelArts预置镜像更新说明 ModelArts统一镜像列表 Notebook专属预置镜像列表 训练专属预置镜像列表 推理专属预置镜像列表 父主题: 制作自定义镜像用于ModelArts Standard
举例,如果用户需要用OBS中的数据进行训练,当已经为IAM用户配置ModelArts训练权限时,仍需同时为其配置对应的OBS权限(读、写、列表),才可以正常使用。其中OBS的列表权限用于支持用户从ModelArts界面上选择要进行训练的数据路径;读权限主要用于数据的预览以及训练任务执行时的数据读取;写权限则是为了保存训练结果和日志。
ModelArts的API或SDK支持模型下载到本地吗? ModelArts通过OBS的API访问OBS中的文件,属于内网还是公网访问? 调用ModelArts API接口创建训练作业和部署服务时,如何填写资源池的参数?
创建模型 创建模型不同方式的场景介绍 从训练作业中导入模型文件创建模型 从OBS中导入模型文件创建模型 从容器镜像中导入模型文件创建模型 从AI Gallery订阅模型 父主题: 使用ModelArts Standard部署模型并推理预测
CommonOperations权限只能二选一,不能同时选。 OBS对象存储服务 授予子用户使用OBS服务的权限。ModelArts的数据集、开发环境、训练作业、模型推理部署均需要通过OBS进行数据中转。 OBS OperateAccess 必选 SWR容器镜像仓库 授予子用户使用SWR服务权