-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“模型训练”页签中,待训练状态变为“运行成功”,单击版本管理区域中的“部署”,开始将模型部署上线为在线服务。
-
训练作业卡死检测定位 - AI开发平台ModelArts
是否卡死,并在日志详情界面上展示,同时能配置通知及时提醒用户作业卡死。 检测规则 卡死检测主要是通过监控作业进程的状态和资源利用率来判定作业是否卡死。会启动一个进程来周期性地监控上述两个指标的变化情况。 进程状态:只要训练作业中存在进程IO有变化,进入下一个检测周期。如果在多个检
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“运行节点”页面中,待训练状态变为“等待输入”,双击“服务部署”节点,完成相关参数配置。 在服务部署页面,选择部署上线使用的资源规格。
-
消息通知 - AI开发平台ModelArts
消息通知 Workflow使用了消息通知服务,支持用户在事件列表中选择需要监控的状态,并在事件发生时发送消息通知。如需订阅通知消息,则打开“订阅消息”开关。 打开开关后,需要先指定SMN主题名,如未创建主题名,需前往消息通知服务创建主题。 支持对Workflow中单个节点、多个节
-
训练作业卡死检测 - AI开发平台ModelArts
是否卡死,并在日志详情界面上展示,同时能配置通知及时提醒用户作业卡死。 检测规则 卡死检测主要是通过监控作业进程的状态和资源利用率来判定作业是否卡死。会启动一个进程来周期性地监控上述两个指标的变化情况。 进程状态:只要训练作业中存在进程IO有变化,进入下一个检测周期。如果在多个检
-
数据标注 - AI开发平台ModelArts
nbao”,按“Enter”键完成此标签的添加。标注完成后,左侧图片目录中此图片的状态将显示为“已标注”。 数据标注的更多说明: 您可以在图片上方或下方单击左右切换键,或者按键盘的左右方向键,选择其他图片,重复上述操作继续进行图片标注。如果一张图片有多个物体,您可以标注多处。 同
-
数据标注 - AI开发平台ModelArts
nbao”,按“Enter”键完成此标签的添加。标注完成后,左侧图片目录中此图片的状态将显示为“已标注”。 数据标注的更多说明: 您可以在图片上方或下方单击左右切换键,或者按键盘的左右方向键,选择其他图片,重复上述操作继续进行图片标注。如果一张图片有多个物体,您可以标注多处。 同
-
API概览 - AI开发平台ModelArts
通过运行的实例保存成容器镜像 运行的实例可以保存成容器镜像,保存的镜像中,安装的依赖包(pip包)不丢失,VSCode远程开发场景下,在Server端安装的插件不丢失。 查询支持的有效规格列表 查询支持的有效规格列表。 查询支持可切换规格列表 查询Notebook实例可切换的规格列表。 查询运行中的开发环境可用时长
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“运行节点”页面中,待服务部署节点的状态变为“等待输入”时,双击“服务部署”进入配置详情页,完成资源的参数配置操作。
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“运行总览”页面中,待服务部署节点的状态变为“等待输入”,双击“服务部署”节点,进入配置详情页,完成资源的参数配置操作。
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“运行节点”页面中,待服务部署节点的状态变为“等待输入”时,双击“服务部署”进入配置详情页,完成资源的参数配置操作。
-
推理业务迁移评估表 - AI开发平台ModelArts
需要评估是否愿意迁移到华为云的通用OS。 - AI引擎及版本 当前引擎(TF/PT/LibTorch),是否接受切换MindSpore。 例如:当前使用TF 2.6,PyTorch 1.10,可以接受切换MindSpore。 - 业务编程语言、框架、版本。 C++/Python/JAVA等。 例如
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“运行总览”页面中,待服务部署节点的状态变为“等待输入”时,双击“服务部署”进入配置详情页,完成资源的参数配置操作。
-
Notebook cache盘告警上报 - AI开发平台ModelArts
填写告警基本信息。 设置告警规则。 “规则类型”选择“阈值规则”。 “监控对象”:选择“选择资源对象”。单击选择资源对象,弹出新窗口。 添加方式:选择“按指标维度添加”。 指标名称:选择“全量指标”,搜索需要监控的cache指标名称然后选中。例如:ma_container_note
-
训练作业一直在等待中(排队)? - AI开发平台ModelArts
不足情况。有以下方法可以尝试: 如果使用的是免费规格,可以换成收费规格,免费规格资源较少,排队概率高。 规格选择卡数尽量少,如可以选择1卡,相比于选择8卡排队几率大大降低。 可以尝试使用其他Region(如北京四切换为上海一)。 如果有长期的资源使用诉求,可以购买独占使用的专属资源池。
-
配置流程 - AI开发平台ModelArts
5 日志监控 使用ModelArts监控自定义指标 介绍如何使用ModelArts监控自定义指标。 可选。 使用ModelArts的exporter功能在Prometheus查看监控数据 介绍如何使用ModelArts的exporter功能在Prometheus查看监控数据。 可选。
-
推理服务端到端运维 - AI开发平台ModelArts
服务运维阶段,先利用镜像构建AI应用,接着部署AI应用为在线服务,然后可在云监控服务(CES)中获得ModelArts推理在线服务的监控数据,最后可配置告警规则实现实时告警通知。 业务运行阶段,先将业务系统对接在线服务请求,然后进行业务逻辑处理和监控设置。 图1 推理服务的端到端运维流程图 整个运维过程
-
ModelArts资源池管理功能全面升级 - AI开发平台ModelArts
资源池。ModelArts支持将现有专属资源池迁移到新的体系下,此变更不需要您做任何额外操作,我们会主动与您联系完成变更。同时,此变更不会对专属资源池上运行的Workload有任何影响。您唯一要关注的是后续需要切换到新的专属资源池(即弹性集群New)中管理,其提供了更加完善且易用
-
基于ModelArts Standard一键完成商超商品识别模型部署 - AI开发平台ModelArts
基于ModelArts Standard一键完成商超商品识别模型部署 ModelArts的AI Gallery中提供了大量免费的模型供用户一键部署,进行AI体验学习。 本文以“商超商品识别”模型为例,完成从AI Gallery订阅模型,到ModelArts Standard一键部署为在线服务的免费体验过程。
-
场景描述 - AI开发平台ModelArts
CES云监控 授予子用户使用CES云监控服务的权限。通过CES云监控可以查看ModelArts的在线服务和对应模型负载运行状态的整体情况,并设置监控告警。 CES FullAccess 可选 SMN消息服务 授予子用户使用SMN消息服务的权限。SMN消息通知服务配合CES监控告警功能一起使用。