-
操作步骤 - AI开发平台ModelArts
save_image.py代码如下: # save_image.py # 导入ModelArts SDK的依赖,并初始化Session,此处的ak、sk、project_id、region_name请替换成用户自己的信息 from modelarts.session import
-
Caffe - AI开发平台ModelArts
{ name: "prob" type: "Softmax" bottom: "ip2" top: "prob" } 推理代码 在模型代码推理文件customize_service.py中,需要添加一个子类,该子类继承对应模型类型的父类,各模型类型的父类名称和导入语句如请参考表
-
创建算法 - AI开发平台ModelArts
导入超参 您可以单击“增加超参”手动添加超参。 编辑超参 超参的参数说明参见表4。 表4 超参编辑参数 参数 说明 名称 填入超参名称。 超参名称支持64个以内字符,仅支持大小写字母、数字、下划线和中划线。 类型 填入超参的数据类型。
-
AIGC工具tailor使用指导 - AI开发平台ModelArts
string 否 fp16 - Python API 导入包并创建tailor对象。 from tailor.tailor import Tailor onnx_model_path = ".
-
ModelArts支持哪些AI框架? - AI开发平台ModelArts
推理支持的AI引擎 在ModelArts创建AI应用时,若使用预置镜像“从模板中选择”或“从OBS中选择”导入模型,则支持如下常用引擎及版本的模型包。 标注“推荐”的Runtime来源于统一镜像,后续统一镜像将作为主流的推理基础镜像。
-
数据扩增 - AI开发平台ModelArts
其中“Data”文件夹用于存放新生成的图片和标注信息,“manifest”文件存储文件夹中图片的结构,可直接导入到数据管理的数据集中。
-
ModelArts支持哪些AI框架? - AI开发平台ModelArts
推理支持的AI引擎 在ModelArts创建AI应用时,若使用预置镜像“从模板中选择”或“从OBS中选择”导入模型,则支持如下常用引擎及版本的模型包。 标注“推荐”的Runtime来源于统一镜像,后续统一镜像将作为主流的推理基础镜像。
-
分布式调测适配及代码示例 - AI开发平台ModelArts
导入依赖包 import datetime import inspect import os import pickle import random import argparse import numpy as np import torch import torch.distributed
-
pipeline代码适配 - AI开发平台ModelArts
modelarts-ascend/examples/AIGC/stable_diffusion/onnx_pipeline.py”也复制一份到该目录,名称改为“mslite_pipeline.py”,迁移后的推理代码中的pipeline需要修改为从复制的onnx pipeline文件导入
-
部署为边缘服务 - AI开发平台ModelArts
说明: 选择的模型是om或tflite格式的,然后使用“ARM-Ascend模板”导入至ModelArts创建为AI应用。
-
模型配置文件编写说明 - AI开发平台ModelArts
示例请参考导入模型时安装包依赖配置文件如何书写? health 否 health数据结构 镜像健康接口配置信息,只有“model_type”为“Image”时才需填写。 如果在滚动升级时要求不中断业务,那么必须提供健康检查的接口供ModelArts调用。