检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Model import task submitted. 模型导入任务提交成功 模型导入任务提交成功 200 ModelArts.4912 Model import task executed. 模型导入任务执行成功 模型导入任务执行成功 200 ModelArts.4914 Auto
pem文件生成)。 单击“Open”。如果首次登录,PuTTY会显示安全警告对话框,询问是否接受服务器的安全证书。单击“Accept”将证书保存到本地注册表中。 图6 询问是否接受服务器的安全证书 成功连接到云上Notebook实例。 图7 连接到云上Notebook实例 父主题: 使用Notebook进行AI开发调试
数据集支持的特性列表。当前只支持特性值“0”,表示限制OBS文件大小。 import_data Boolean 是否导入数据。可选值如下: true:导入数据 false:不导入数据 import_task_id String 导入任务ID。 inner_annotation_path String 数据集内部标注结果的保存路径。
创建模型 创建模型不同方式的场景介绍 从训练作业中导入模型文件创建模型 从OBS中导入模型文件创建模型 从容器镜像中导入模型文件创建模型 从AI Gallery订阅模型 父主题: 使用ModelArts Standard部署模型并推理预测
根据DAG结构编排节点,完成Workflow的编写。 导入Workflow Data包 在编写Workflow过程中,相关对象都通过Workflow包进行导入,梳理如下: from modelarts import workflow as wf Data包相关内容导入: wf.data.DatasetTypeEnum
”获得此文件。 创建一个空数据集C,即无任何输出,其输入位置选择一个空的OBS文件夹。 在数据集C中,执行导入数据操作,将数据集A和数据集B的Manifest文件导入。 导入完成后,即将数据集A和数据集B的数据分别都合并至数据集C中。如需使用合并后的数据集,再针对数据集C执行发布操作即可。
如何将Keras的.h5格式的模型导入到ModelArts中? ModelArts导入模型时,如何编写模型配置文件中的安装包依赖参数? 在ModelArts中使用自定义镜像创建在线服务,如何修改端口? ModelArts平台是否支持多模型导入? 在ModelArts中导入模型对于镜像大小有什么限制?
信息可以参考下图查看,组织名称在“容器镜像服务>组织管理”创建。 注册镜像 在ModelArts Console上注册镜像 登录ModelArts控制台,在左侧导航栏选择“镜像管理”,进入镜像管理页面。 单击“注册镜像”,镜像源即为步骤1中推送到SWR中的镜像。请将完整的SWR地
加密算法采用了国际通用的AES算法。 传输中的数据保护 在ModelArts中导入模型时,支持用户自己选择HTTP和HTTPS两种传输协议,为保证数据传输的安全性,推荐用户使用更加安全的HTTPS协议。 数据完整性检查 推理部署功能模块涉及到的用户模型文件和发布到AIGalle
ut_storage,'obs://dyyolov8/yolov5_test/yolov5-7.0/datasets'), mox这个函数怎么定义以变量的形式填写OBS路径? 解决方案 变量定义参考如下示例: input_storage = './test.py' import moxing
py”中,需要添加一个子类,该子类继承对应模型类型的父类,各模型类型的父类名称和导入语句如表1所示。导入语句所涉及的Python包在ModelArts环境中已配置,用户无需自行安装。 表1 各模型类型的父类名称和导入语句 模型类型 父类 导入语句 TensorFlow TfServingBaseService
是否必选 参数类型 描述 final_annotation 否 Boolean 是否直接导入到最终结果。可选值如下: true:标签导入到已标注(默认值) false:标签导入到待确认,导入到待确认状态目前仅支持的数据集类型为图像分类和物体检测。 label_format 否 LabelFormat
针对使用常用框架完成模型开发和训练的场景,可以将您的模型导入至ModelArts中,创建为AI应用,进行统一管理。 1、如果您是在ModelArts中训练得到的模型,可直接从训练中导入模型。 2、如果您在本地或其他平台训练得到模型,可先将模型上传至OBS,再从OBS中导入模型。 从OBS导入元模型(手动配置) 从训练中选择元模型
资源池。 如果磁盘空间不够,可以尝试重试,使实例调度到其他节点。如果单实例仍磁盘空间不足,请联系系统管理员,更换合适的规格。 如果是大模型导入的模型部署服务,请确保专属资源池磁盘空间大于1T(1000GB)。 父主题: 服务部署
当使用ModelArts不支持的AI框架构建模型时,可通过构建的自定义镜像导入ModelArts进行训练或推理。您可以通过容器镜像服务(Software Repository for Container,简称SWR)制作并上传自定义镜像,然后再通过容器镜像服务导入ModelArts。SWR的更多信息请参见《容器镜像服务用户指南》。
当使用ModelArts不支持的AI框架构建模型时,可通过构建的自定义镜像导入ModelArts进行训练或推理。您可以通过容器镜像服务(Software Repository for Container,简称SWR)制作并上传自定义镜像,然后再通过容器镜像服务导入ModelArts。SWR的更多信息请参见《容器镜像服务用户指南》。
modelarts:model:* 创建、删除、查看、导入AI模型。 建议配置。 仅在严格授权模式开启后,需要显式配置左侧权限。 SWR SWR Admin SWR Admin为SWR最大权限,用于: 从自定义镜像导入。 从OBS导入时使用自定义引擎。 按需配置。 OBS obs:b
查询标注团队的成员列表 创建标注团队的成员 批量删除标注团队成员 查询标注团队成员详情 更新标注团队成员 删除标注团队成员 查询数据集导入任务列表 创建导入任务 查询数据集导入任务的详情 查询数据集导出任务列表 创建数据集导出任务 查询数据集导出任务的状态 同步数据集 查询数据集同步任务的状态 查询智能标注的样本列表
本、Workflow名称、云服务区域以及工作空间参数后,单击“导入”。 图3 从AI Gallery导入工作流 工作流运行的云服务区域需要与创建的数据集所在区域保持一致,否则工作流配置时无法选到准备好的数据集。 导入完成后会自动跳转至Workflow的详情页,单击Workflow
标位置”。 查看数据集是否已导入ModelArts。 返回ModelArts管理控制台,在左侧导航栏选择“数据集”,默认进入数据集新版页面。在新版数据集列表页,单击数据集名称左侧的,展开数据集,查看“导入状态”,导入状态为“导入完成”代表示数据集导入成功,且数据集正常。 数据集下