正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
模型包规范介绍 创建AI应用时,如果是从OBS中导入元模型,则需要符合一定的模型包规范。 模型包规范适用于单模型场景,若是多模型场景(例如含有多个模型文件)推荐使用自定义镜像方式。 ModelArts推理平台不支持的AI引擎,推荐使用自定义镜像方式。 请参考创建AI应用的自定义镜
当model_type设置为Image,表示以自定义镜像方式创建AI应用,此时swr_location为必填参数。Image镜像制作规范可参见模型镜像规范。 runtime 否 String 模型运行时环境,系统默认使用python2.7。runtime可选值与model_type相
文档导读 本文档指导您如何安装和配置开发环境、如何通过调用ModelArts SDK提供的接口函数进行二次开发。 章节 内容 SDK简介 简要介绍ModelArts SDK的概念。 快速开始 介绍如何使用ModelArts SDK进行二次开发。 (可选)本地服务器安装ModelArts
模型包规范 模型包规范介绍 模型配置文件编写说明 模型推理代码编写说明 父主题: 推理规范说明
保存完模型后,需要上传到OBS目录才能发布。发布时需要带上“config.json”配置以及“customize_service.py”,定义方式参考模型包规范介绍。 推理代码 在模型代码推理文件customize_service.py中,需要添加一个子类,该子类继承对应模型类型的父类,各模型类型的父类名称和导入语句如请参考表1。
XGBoost 训练并保存模型 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 import pandas as pd import xgboost as
预置预测分析模式 输入 系统预置预测分析输入输出模式,适用于预测分析的模型,使用该模式的模型将被标识为预测分析模型。预测请求路径“/”,请求协议为“HTTP”,请求方法为“POST”,调用方需采用“application/json”内容类型,发送预测请求,请求体以“JSON”格式
预置物体检测模式 输入 系统预置物体检测输入输出模式,适用于物体检测的模型,使用该模式的模型被标识为物体检测模型。预测请求路径“/”,请求协议为“HTTP”,请求方法为“POST”,调用方需采用“multipart/form-data”内容类型,以“key”为“images”,“
预置图像处理模式 输入 系统预置图像处理输入输出模式,适用于图像分类、物体检测和图像语义分割等图像处理模型。预测请求路径“/”,请求协议为“HTTPS”,请求方法为“POST”,调用方需采用“multipart/form-data”内容类型,以“key”为“images”,“ty
数据保护技术 ModelArts通过多种数据保护手段和特性,保障存储在ModelArts中的数据安全可靠。 数据保护手段 说明 静态数据保护 对于AI Gallery收集的用户个人信息中的敏感信息,如用户邮箱和手机号,AI Gallery在数据库中做了加密处理。其中,加密算法采用了国际通用的AES算法。
模型模板 模型模板简介 模板说明 输入输出模式说明 父主题: 推理规范说明
推理规范说明 模型包规范 模型模板 自定义脚本代码示例
def _postprocess(self, data): # 这里增加自己的后处理 return str(data) 父主题: 模型包规范
发布技术文章(AI说) AI Gallery中的“AI说”,是一个AI开发人员的交流园地。在这里可以阅读其他用户分享的技术文章,并参与评论。也可以发布分享个人技术文章。 前提条件 已入驻AI Gallery。 发布技术文章 进入AI Gallery首页,单击“AI说”,在下拉框中单击“AI说
创建模型规范参考 模型包结构介绍 模型配置文件编写说明 模型推理代码编写说明 自定义引擎创建模型规范 自定义脚本代码示例 父主题: 使用ModelArts Standard部署模型并推理预测
订阅模型 从AI Gallery订阅模型 从云服务订阅AI应用(即将下线) 父主题: 管理AI应用
TensorFlow TensorFlow 2.1 PyTorch Caffe XGBoost Pyspark Scikit Learn 父主题: 推理规范说明
模板说明 TensorFlow图像分类模板 TensorFlow-py27通用模板 TensorFlow-py36通用模板 MXNet-py27通用模板 MXNet-py36通用模板 PyTorch-py27通用模板 PyTorch-py36通用模板 Caffe-CPU-py27通用模板
推理简介 AI模型开发完成后,在ModelArts服务中可以将AI模型创建为AI应用,将AI应用快速部署为推理服务,您可以通过调用API的方式把AI推理能力集成到自己的IT平台。 图1 推理简介 开发模型:模型开发可以在ModelArts服务中进行,也可以在您的本地开发环境进行,
镜像的方式将编写的模型导入ModelArts。 约束与限制 关于自定义镜像规范和说明,请参见模型镜像规范。 针对您开发并训练完成的模型,需要提供对应的模型配置文件,此文件需遵守ModelArts的填写规范,详情请参见模型配置文件编写说明。编写完成后,需将此文件上传至OBS指定目录下。