-
使用Grafana配置Dashboards,查看指标数据 - AI开发平台ModelArts
uid”,修改json中的uid后单击“Import”。 图4 修改uid 导入成功后,在Dashboards下,即可看到导入的视图,单击视图即可打开监控。 模板使用 导入成功后,单击想查看的模板即可查看响应内容。这里介绍一些常用功能的使用。 切换数据源和资源池 图5 切换数据源和资源池 单
-
在Linux上安装配置Grafana - AI开发平台ModelArts
在Linux上安装配置Grafana 前提条件 一台可访问外网的Ubuntu服务器。如果没有请具备以下条件: 准备一台ECS服务器(建议规格选8U或者以上,镜像选择Ubuntu,建议选择22.04版本,本地存储100G),具体操作请参考《弹性云服务器快速入门》。 购买弹性公网IP
-
在Windows上安装配置Grafana - AI开发平台ModelArts
登录Grafana。 Grafana默认在本地的3000端口启动,打开链接http://localhost:3000,出现Grafana的登录界面。首次登录用户名和密码为admin,登录成功后请根据提示修改密码。 父主题: 安装配置Grafana
-
查询数据集监控数据 - AI开发平台ModelArts
查询数据集监控数据 功能介绍 查询数据集在指定时间范围内的监控数据。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/dat
-
在Notebook上安装配置Grafana - AI开发平台ModelArts
在Notebook上安装配置Grafana 前提条件 已创建CPU或GPU类型的Notebook实例,并处于运行中。 打开Terminal。 操作步骤 在Terminal中依次执行以下命令,下载并安装Grafana。 mkdir -p /home/ma-user/work/grf
-
如何在AOM上查看ModelArts所有监控指标? - AI开发平台ModelArts
如何在AOM上查看ModelArts所有监控指标? Modelarts会定期收集资源池中各节点的关键资源(GPU、NPU、CPU、Memory等)的使用情况并上报到AOM,用户可直接在AOM上查看默认配置好的基础指标,详细步骤如下: 登录控制台,搜索AOM,进入“应用运维管理 AOM”控制台。 单击“监控 > 指
-
使用ModelArts监控自定义指标 - AI开发平台ModelArts
使用ModelArts监控自定义指标 背景信息 用户有一些自定义的指标数据需要保存到AOM,ModelArts提供了命令方式将用户的自定义指标上报保存到AOM。 约束与限制 ModelArts以10秒/次的频率调用自定义配置中提供的命令或http接口获取指标数据。 自定义配置中提
-
使用ModelArts的exporter功能在Prometheus查看监控数据 - AI开发平台ModelArts
使用ModelArts的exporter功能在Prometheus查看监控数据 背景信息 Prometheus是一款开源监控工具,ModelArts支持Exporter功能,方便用户使用Prometheus等第三方监控系统获取ModelArts采集到的指标数据。 使用说明 该功能为白
-
从MRS导入数据 - AI开发平台ModelArts
从MRS导入数据 ModelArts支持从MRS服务中导入存储在HDFS上的csv格式的数据,首先需要选择已有的MRS集群,并从HDFS文件列表选择文件名称或所在目录,导入文件的列数需与数据集schema一致。MRS的详细功能说明,请参考MRS用户指南。 图1 从MRS导入数据
-
读CSV文件 - AI开发平台ModelArts
读CSV文件 概述 读CSV文件支持从LOCAL、OBS、HDFS读取CSV类型的文件数据。 输入 无 输出 表1 参数 子参数 参数说明 output output_port_1 output为字典类型,output_port_1为pyspark中的DataFrame类型对象,为算子读取的结果。
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“运行节点”页面中,待训练状态变为“等待输入”,双击“服务部署”节点,完成相关参数配置。 在服务部署页面,选择部署上线使用的资源规格。
-
训练作业卡死检测定位 - AI开发平台ModelArts
rts提供了卡死检测功能,能自动识别作业是否卡死,并在日志详情界面上展示,同时能配置通知及时提醒用户作业卡死。 检测规则 卡死检测主要是通过监控作业进程的状态和资源利用率来判定作业是否卡死。会启动一个进程来周期性地监控上述两个指标的变化情况。 进程状态:只要训练作业中存在进程IO
-
训练作业卡死检测 - AI开发平台ModelArts
rts提供了卡死检测功能,能自动识别作业是否卡死,并在日志详情界面上展示,同时能配置通知及时提醒用户作业卡死。 检测规则 卡死检测主要是通过监控作业进程的状态和资源利用率来判定作业是否卡死。会启动一个进程来周期性地监控上述两个指标的变化情况。 进程状态:只要训练作业中存在进程IO
-
资源池统计 - AI开发平台ModelArts
参数类型 描述 error_code String ModelArts错误码 error_msg String 具体错误信息 请求示例 查询资源池监控信息。 GET https://{endpoint}/v2/{project_id}/pools { } 响应示例 状态码: 200 OK。
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“模型训练”页签中,待训练状态变为“运行成功”,单击版本管理区域中的“部署”,开始将模型部署上线为在线服务。
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“运行节点”页面中,待服务部署节点的状态变为“等待输入”时,双击“服务部署”进入配置详情页,完成资源的参数配置操作。
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“模型训练”页签中,待训练状态变为“运行成功”,单击版本管理区域中的“部署”,开始将模型部署上线为在线服务。
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“模型训练”页签中,待训练状态变为“运行成功”,单击版本管理区域中的“部署”。 图1 部署操作
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“模型训练”页签中,待训练状态变为“运行成功”,单击版本管理区域中的“部署”,开始将模型部署上线为在线服务。
-
部署上线 - AI开发平台ModelArts
部署上线 部署上线 部署上线操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“模型训练”页签中,待训练状态变为“运行成功”,单击版本管理区域中的“部署”,开始将模型部署上线为在线服务。