正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
re 该指标用于统计测量对象申请的CPU核总量。 核(Core) ≥1 CPU内核占用 ma_node_cpu_used_core 该指标用于统计测量对象已经使用的CPU核数。 核(Core) ≥0 CPU使用率 ma_node_cpu_util 该指标用于统计测量对象的CPU使用率。
我的Gallery介绍 “我的Gallery”可以查看各类AI资产的发布订阅情况和个人资料等。 在“AI Gallery”页面中,单击右上角“我的Gallery > 我的主页”进入个人中心页面。 图1 进入我的Gallery 表1 我的Gallery列表介绍 模块列表 功能介绍 我的主页
管理AI应用简介 AI开发和调优往往需要大量的迭代和调试,数据集、训练代码或参数的变化都可能会影响模型的质量,如不能统一管理开发流程元数据,可能会出现无法重现最优模型的现象。 ModelArts的AI应用可导入所有训练生成的元模型、上传至对象存储服务(OBS)中的元模型和容器镜像
查看AI应用详情 当AI应用创建成功后,您可以进入AI应用详情页查看AI应用的信息。 登录ModelArts管理控制台,在左侧菜单栏中选择“AI应用”,进入“自定义应用”列表页面。 单击目标AI应用名称,进入AI应用详情页面。 您可以查看AI应用的基本信息、模型精度,以及切换页签查看更多信息。
部署AI应用(在线服务) 部署为在线服务 查看服务详情 测试服务 访问在线服务 集成在线服务 CloudShell 父主题: 部署AI应用(部署上线)
模型推理代码编写说明 本章节介绍了在ModelArts中模型推理代码编写的通用方法及说明,针对常用AI引擎的自定义脚本代码示例(包含推理代码示例),请参见自定义脚本代码示例。本文在编写说明下方提供了一个TensorFlow引擎的推理代码示例以及一个在推理脚本中自定义推理逻辑的示例。
PyTorch 训练模型 from __future__ import print_function import argparse import torch import torch.nn as nn import torch.nn.functional as F import
(可选)本地服务器安装ModelArts SDK 如果需要在个人PC或虚拟机上使用ModelArts SDK,则需要在本地环境中安装ModelArts SDK,安装后可直接调用ModelArts SDK轻松管理数据集、创建ModelArts训练作业及创建AI应用,并将其部署为在线服务。
查询样本列表 查询数据集的样本列表,不支持表格类型数据集。 dataset.list_samples(version_id=None, offset=None, limit=None) 示例代码 示例一:查询数据集样本列表 from modelarts.session import
Lite Server资源开通 图1 Server资源开通流程图 表1 Server资源开通流程 阶段 任务 准备工作 1、申请开通资源规格。 2、资源配额提升。 3、基础权限开通。 4、配置ModelArts委托授权。 5、创建虚拟私有云。 6、创建密钥对。(可选,若为密码登录方式则不需要)
同步数据集 功能介绍 从数据集输入位置同步数据至数据集,包含样本及标注信息。文本类数据集不支持此操作。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v
更新数据集 功能介绍 修改数据集的基本信息,如数据集名称、描述、当前版本或标签等信息。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI PUT /v2/{projec
批量更新样本标签 功能介绍 批量更新样本标签,包括添加、修改和删除样本标签。当请求体中单个样本的“labels”参数传空列表时,表示删除该样本的标签。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
更新团队标注任务 功能介绍 更新团队标注任务。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI PUT /v2/{project_id}/datasets/{data
获取用户名和用户ID 在调用接口的时候,部分请求中需要填入用户名(user name)和用户ID(user_id)。获取步骤如下: 注册并登录管理控制台。 鼠标移动至用户名,在下拉列表中单击“我的凭证”。 在“API凭证”页面,查看“IAM用户名”和“IAM用户ID”。 图1 获取用户名和ID
以PyTorch框架创建训练作业(新版训练) 本节通过调用一系列API,以训练模型为例介绍ModelArts API的使用流程。 概述 使用PyTorch框架创建训练作业的流程如下: 调用认证鉴权接口获取用户Token,在后续的请求中需要将Token放到请求消息头中作为认证。 调
基本配置 权限配置 创建网络 专属资源池VPC打通 ECS服务器挂载SFS Turbo存储 在ECS中创建ma-user和ma-group obsutil安装和配置 (可选)工作空间配置 父主题: 专属资源池训练
FAQ CUDA和CUDNN CloudShell调试方法 run.sh脚本测试ModelArts训练整体流程 ModelArts环境挂载目录说明 如何查看训练环境变量 infiniband驱动的安装 Tensorboard的使用 如何保证训练和调试时文件路径保持一致 父主题: 专属资源池训练
无法导入模块 问题现象 ModelArts训练作业导入模块时日志报错: Traceback (most recent call last):File "project_dir/main.py", line 1, in <module>from module_dir import module_file
数据集版本发布失败 出现此问题时,表示数据不满足数据管理模块的要求,导致数据集发布失败,无法执行自动学习的下一步流程。 请根据如下几个要求,检查您的数据,将不符合要求的数据排除后再重新启动自动学习的训练任务。 ModelArts.4710 OBS权限问题 ModelArts在跟O