-
Caffe-CPU-py36通用模板 - AI开发平台ModelArts
Caffe-CPU-py36通用模板 简介 搭载Caffe1.0 CPU版AI引擎,运行环境为“python3.6”,内置输入输出模式为未定义模式,请根据模型功能或业务场景重新选择合适的输入输出模式。使用该模板导入模型时请选择到包含模型文件的model目录。 模板输入 存储在OBS上的Caffe模型包,
-
TensorFlow图像分类模板 - AI开发平台ModelArts
8引擎,运行环境为“python2.7”,适合导入以“SavedModel”格式保存的TensorFlow图像分类模型。该模板使用平台预置的图像处理模式,模式详情参见预置图像处理模式,推理时向模型输入一张“key”为“images”的待处理图片,所以需确保您的模型能处理“key”为“images”的输入。
-
Caffe-GPU-py27通用模板 - AI开发平台ModelArts
Caffe-GPU-py27通用模板 简介 搭载Caffe1.0 GPU版AI引擎,运行环境为“python2.7”,内置输入输出模式为未定义模式,请根据模型功能或业务场景重新选择合适的输入输出模式。使用该模板导入模型时请选择到包含模型文件的model目录。 模板输入 存储在OBS上的Caffe模型包,
-
运行算链 - AI开发平台ModelArts
运行算链 算链运行分为三种模式:运行算链、运行到此处、运行当前算子。 由于一个MLS Editor对应一个Kernel(进程),所有运行模式皆可获取前续阶段运行后的所有变量。 表1 算链运行模式 运行模式 操作 说明 运行算链 单击算链编排界面导航栏运行按钮。 运行整个算链,如图1所示。对应Notebook的Run
-
开发态 - AI开发平台ModelArts
ps相关的开发者。该使用方式对于AI开发者来说是非常熟悉的一种开发模式,而且灵活度极高,主要提供以下能力。 开发构建:使用python代码灵活编排构建工作流。 调试:支持debug以及run两种模式,其中run模式支持节点部分运行、全部运行。 发布:支持将调试后的工作流进行固化,发布至运行态,支持配置运行。
-
NPU Snt9B裸金属服务器docker网络配置方案 - AI开发平台ModelArts
间免密登录、网络互通。本文介绍两种docker容器常用的网络配置。 docker常用网络模式介绍 host模式 在创建docker容器时使用如下命令指定。 --net=host host模式下容器将不会获得一个独立的Network Namespace ,而是和宿主机共用一个Network
-
故障恢复 - AI开发平台ModelArts
您可以设计和操作在可用区之间无中断地自动实现故障转移的应用程序和数据库。与传统的单个或多个数据中心基础设施相比,可用区具有更高的可用性、容错性和可扩展性。 ModelArts通过对DB的数据进行备份,保证在原数据被破坏或损坏的情况下可以恢复业务。 开发环境故障恢复 针对用户创建
-
费用账单 - AI开发平台ModelArts
账单管理”查看资源的费用账单,以了解该资源在某个时间段的使用量和计费信息。 账单上报周期 包年/包月计费模式的资源完成支付后,会实时上报一条账单到计费系统进行结算。 按需计费模式的资源按照固定周期上报使用量到计费系统进行结算。按需计费模式产品根据使用量类型的不同,分为按小时、按天、按月三种周期进行结算,具体扣费
-
服务韧性 - AI开发平台ModelArts
风险,对威胁告警及时响应。 ModelArts承载关键业务的对外开放EIP部署了高防服务,以防大流量攻击。 ModelArts对存放关键数据的数据库部署了数据库安全服务。 云服务防抖动和遭受攻击后的应急响应/恢复策略 ModelArts服务具备租户资源隔离能力,避免单租户资源被攻击导致爆炸半径大,影响其他租户。
-
查询训练作业参数详情 - AI开发平台ModelArts
dest_path String 训练作业的本地路径。 read_only Boolean dest_path 是否为只读权限,默认为读写权限。 true:只读权限 false:默认值,读写权限 表7 host_path属性列表 参数 参数类型 说明 src_path String
-
发布Notebook - AI开发平台ModelArts
单击编辑框右侧的对勾完成编辑。 保存成功的标签信息会在资产搜索页成为过滤分类条件。 图5 添加标签 关联资产 Notebook可以关联数据集资产。当Notebook关联了数据集时,数据集页面也显示关联了Notebook。 选择“关联资产”页签,单击右上方的“编辑”,在搜索框中输入待关联资产的ID,单击“关联”。
-
ModelArts环境挂载目录说明 - AI开发平台ModelArts
载点在保存镜像的时候不会保存)。详情如下: Notebook 表1 Notebook挂载点介绍 挂载点 是否只读 备注 /home/ma-user/work/ 否 客户数据的持久化目录。 /data 否 客户PFS的挂载目录。 /cache 否 裸机规格时支持,用于挂载宿主机NVMe的硬盘。
-
资产上架 - AI开发平台ModelArts
审核完成后,资产会变成“已发布”状态,并在模型列表可见。 数据集资产上架 登录AI Gallery,选择右上角“我的Gallery”。 在“我的资产 > 数据集”下,选择未发布的数据集,单击数据集名称,进入数据集详情页。 在数据集详情页,单击右侧“发布”,在发布数据集页面编辑发布信息后,单击“发布”。
-
模型模板简介 - AI开发平台ModelArts
通用模板,搭载特定的AI引擎以及运行环境,内置的输入输出模式为未定义模式,即不定义具体的输入输出格式,用户需根据模型功能或业务场景重新选择新的输入输出模式来覆盖内置的未定义模式,如图像分类模型应选择预置图像处理模式,而目标检测模型则应选择预置物体检测模式。 使用未定义模式的模型将无法部署批量服务。 如何使用模板
-
创建AI应用的自定义镜像规范 - AI开发平台ModelArts
自定义镜像中不能包含恶意代码。 自定义镜像大小不超过50GB。 对于同步请求模式的AI应用,如果预测请求时延超过60s,会造成请求失败,甚至会有服务业务中断的风险,预测请求时延超过60s时,建议制作异步请求模式的镜像。 镜像对外接口 设置镜像的对外服务接口,推理接口需与config.
-
MLOps简介 - AI开发平台ModelArts
本就会过高。这种模式在少量模型应用的场景是可行的,但是当规模化落地AI应用时,人力问题将会成为瓶颈。 MLOps功能介绍 机器学习开发流程主要可以定义为四个步骤:项目设计、数据工程、模型构建、部署落地。AI开发并不是一个单向的流水线作业,在开发的过程中,会根据数据和模型结果进行多
-
资产托管简介 - AI开发平台ModelArts
只支持预览大小不超过10MB、格式为文本类或图片类的文件。 支持编辑资产介绍。每个资产介绍可分为基础设置和使用描述。 基础设置部分包含了该资产所有重要的结构化元数据信息。选择填入的信息将会变成该模型资产的标签,并且自动同步在模型描述部分,保存到“README.md”文件里。 模型描述部分是一个可在线编辑、预览的Ma
-
使用预置框架简介 - AI开发平台ModelArts
如果订阅算法不能满足需求或者用户希望迁移本地算法至ModelArts上训练,可以考虑使用ModelArts支持的预置框架实现算法构建。这种方式在创建算法时被称为“使用预置框架”模式。 以下章节介绍了如何使用预置框架创建算法。 如果需要了解ModelArts模型训练支持的预置引擎和模型,请参考预置的训练引擎。 本地开发
-
数据接入简介 - AI开发平台ModelArts
步数据。 创建完数据集后,在数据集列表页面的操作栏单击“导入”,导入数据。 图1 在数据集列表页导入数据 在数据集列表页面,单击某个数据集的名称,进入数据集详情页中,单击“导入>导入”,导入数据。 图2 在数据集详情页中导入数据 在数据集列表页面,单击某个数据集的名称,进入数据集
-
读取DLI表 - AI开发平台ModelArts
读取用户于DLI服务创建的外表(OBS表)。 输入 无 输出 数据集 参数说明 参数 参数说明 DLI_database 用户的目标DLI数据库名称 DLI_table 用户的目标DLI数据库中目标DLI外表(OBS表)的名称 样例 params = { "DLI_database": None, # @param