-
使用Cloud Shell登录训练容器 - AI开发平台ModelArts
使用Cloud Shell登录训练容器 使用场景 允许用户使用ModelArts控制台提供的Cloud Shell登录运行中的训练容器。 约束限制 仅专属资源池均支持使用Cloud Shell,且训练作业必须处于“运行中”状态。 前提条件:给子账号配置允许使用Cloud Shell的权限
-
使用Cloud Shell登录训练容器 - AI开发平台ModelArts
使用Cloud Shell登录训练容器 使用场景 允许用户使用ModelArts控制台提供的Cloud Shell登录运行中的训练容器。 约束限制 仅专属资源池均支持使用Cloud Shell,且训练作业必须处于“运行中”状态。 前提条件:给子账号配置允许使用Cloud Shell的权限
-
使用预置框架简介 - AI开发平台ModelArts
使用预置框架简介 如果订阅算法不能满足需求或者用户希望迁移本地算法至ModelArts上训练,可以考虑使用ModelArts支持的预置框架实现算法构建。这种方式在创建算法时被称为“使用预置框架”模式。 以下章节介绍了如何使用预置框架创建算法。 如果需要了解ModelArts模型训
-
构建学习器 - AI开发平台ModelArts
径,则加载对应路径的模型参数进行评估。 gpu_ids 可选 int/list 模型评估时使用的GPU序号。open-mmlab系列模型默认使用0号卡。ivg系列可指定,如0或者[0, 1]。 show_score_thr 可选 float 评估时预测结果置信度阈值,默认为0.5,仅用于open-mmlab系列模型。
-
工具使用 - AI开发平台ModelArts
工具使用 使用约束 MA-Advisor Profing分析功能依赖输入的Profiling数据,需要用户先在训练或推理过程中进行Profiling数据采集,具体操作参考Profiling数据采集。 MA-Advisor命令总览 MA-Advisor当前支持如下四种命令: ana
-
ModelArts使用简介 - AI开发平台ModelArts
选择相应的教程。 根据经验选择您的使用方式 面向AI开发零基础的用户,您可以使用ModelArts在AI Gallery中预置的模型、算法、数据、Notebook等资产,零代码完成AI建模和应用。 如果您想了解如何一键部署现有的模型,并在线使用模型进行预测,您可以参考基于ModelArts
-
使用案例 - AI开发平台ModelArts
) # 该节点仅作为示例使用,其他字段需自行补充 model_step_1 = wf.steps.ModelStep( name="model_step_1", depend_steps=job_step_1 ) # 该节点仅作为示例使用,其他字段需自行补充 job_step_2
-
示例:从0到1制作自定义镜像并用于训练(MPI+CPU/GPU) - AI开发平台ModelArts
示例:从0到1制作自定义镜像并用于训练(MPI+CPU/GPU) 本章节介绍如何从0到1制作镜像,并使用该镜像在ModelArts平台上进行训练。镜像中使用的AI引擎是MPI,训练使用的资源是CPU或GPU。 本实践教程仅适用于新版训练作业。 场景描述 本示例使用Linux x8
-
使用案例 - AI开发平台ModelArts
使用案例 主要包含七种场景的用例: 使用订阅自AI Gallery的算法 使用算法管理中的算法 使用自定义算法(代码目录+启动文件+官方镜像) 使用自定义算法(代码目录+脚本命令+自定义镜像) 基于数据集版本发布节点构建作业类型节点 作业类型节点结合可视化能力 输入使用DataS
-
使用案例 - AI开发平台ModelArts
desc="this is a demo workflow", steps=[service_step] ) 更新在线服务 使用场景:使用新版本的模型对已有的服务进行更新,需要保证新版本的模型与已部署服务的模型名称一致。 import modelarts.workflow
-
Step1 制作自定义镜像 - AI开发平台ModelArts
nvs/MindSpore 如果使用的基础镜像不是ModelArts提供的公共镜像,需要在Dockerfile文件中添加ModelArts指定的用户和用户组,具体可参考Dockerfile文件(基础镜像为非ModelArts提供)。 构建镜像 使用ma-cli image bui
-
推理基础镜像详情TensorFlow(CPU/GPU) - AI开发平台ModelArts
zip zlib1g-dev ... 引擎版本二: tensorflow_1.15.5-cuda_11.4-py_3.8-ubuntu_20.04-x86_64 镜像地址:swr.{region_id}.myhuaweicloud.com/aip/tensorflow_1_15:tensorflow_1
-
使用限制 - AI开发平台ModelArts
使用限制 套餐包在购买和使用时的限制如下: 套餐包和购买时选定的区域绑定,套餐包只能使用于购买时选定的区域,且只能用于公共资源池,专属资源池不可用。当前只有部分区域可选,具体以控制台为准。 计费时将优先使用套餐包的额度,超出额度部分将以当月累计使用量所在的阶梯价计费。套餐包的额度
-
使用案例 - AI开发平台ModelArts
使用案例 主要包含三种场景的用例。 基于数据集发布版本 基于标注任务发布版本 基于数据集标注节点的输出发布版本 基于数据集发布版本 使用场景:当数据集更新了数据时,可以通过该节点发布新的数据集版本供后续的节点使用。 from modelarts import workflow as
-
使用窍门 - AI开发平台ModelArts
使用窍门 创建项目时,如何快速创建OBS桶及文件夹? 自动学习生成的模型,存储在哪里?支持哪些其他操作? 父主题: 自动学习(新版)
-
使用案例 - AI开发平台ModelArts
则直接使用该名称对应的数据集 data_type=wf.data.DataTypeEnum.IMAGE, # 数据集对应的数据类型, 示例为图像 ) ) # 注意dataset_name这个参数配置的数据集名称需要用户自行确认在该账号下未被他人使用,否则会
-
示例:从0到1制作自定义镜像并用于训练(PyTorch+CPU/GPU) - AI开发平台ModelArts
示例:从0到1制作自定义镜像并用于训练(PyTorch+CPU/GPU) 本章节介绍如何从0到1制作镜像,并使用该镜像在ModelArts平台上进行训练。镜像中使用的AI引擎是PyTorch,训练使用的资源是CPU或GPU。 本实践教程仅适用于新版训练作业。 场景描述 本示例使用Linux
-
使用前须知 - AI开发平台ModelArts
使用前须知 ModelArts Lite DevServer存在以下使用限制: 切换或者重置操作系统后,ModelArts Lite DevServer服务器的EVS系统盘将不支持扩容 服务器在进行过“切换或者重置操作系统”操作后,EVS系统盘ID发生变化,和下单时订单中的EVS
-
使用案例 - AI开发平台ModelArts
# 标题信息,不填默认使用name值 inputs=[ wf.steps.DatasetImportInput(name="input_name_1", data=dataset), # 目标数据集在运行时配置;data字段也可使用wf.data.Data
-
使用案例 - AI开发平台ModelArts
标题信息,不填默认使用name algorithm=wf.AIGalleryAlgorithm(subscription_id="subscription_ID", item_version_id="item_version_ID"), # 训练使用的算法对象,示例中使用AIGallery订阅的算法