检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
模型管理简介 hilens::Model类 模型管理器,使用模型管理器加载模型并进行推理。 #include <model.h> 析构函数 ~Model() virtual hilens::Model::~Model( ) Model析构时会释放掉hiai::Graph等资源。 父主题:
请见选择数据。 训练模型 在“应用开发>模型训练”页面,配置训练参数,开始训练模型。 输出路径 模型训练后,输出的模型和数据存储在OBS的路径。单击输入框,在输出路径的对话框中选择OBS桶和文件夹,然后单击“确定”。 预训练模型 当前服务提供安全帽检测预置模型“saved_model
模型管理 模型管理简介 创建模型 模型推理
cfg”。 OBS导入模型至HiLens Studio 通过OBS导入模型至HiLens Studio,首先需要将自定义的模型上传至OBS服务,请见上传模型至OBS。然后将OBS中的模型导入至HiLens Studio,可通过导入模型和拖拽模型两种操作方式导入模型。 上传模型至OBS 将自定义的模型上传到OBS服务,非“
开发算法模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才
开发模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把
暂不支持导入ModelArts中“自动学习”训练的模型。 华为HiLens 只能导入ModelArts中训练的模型文件,不能导入ModelArts的模型。 本地训练模型 导入自定义模型前,需要将自定义的模型上传到OBS服务,非“.om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“
已在华为HiLens控制台选择“HiLens安全帽检测”技能模板新建技能,并训练模型,详情请见训练模型。 评估模型 工作流会用测试数据评估模型,在“应用开发>评估模型”页面,查看评估结果。 模型评估 图1 模型评估 训练模型的版本、标签数量、测试集数量。单击“下载评估结果”,可保存评估结果至本地。
模型输入目录规范 在本地开发模型后或在ModelArts开发并转换模型后,针对Ascend芯片,其模型输入目录需要满足一定的规范要求。华为HiLens当前对模型输入目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输入目录需符合如下规范。 | |---xxxx
cipherModelfile 其中“model_file”为待加密模型文件,“cipher_file”为加密之后的模型文件。 接口调用 和未加密模型一样调用接口,详情请见: 创建模型实例 模型推理 示例-模型管理 父主题: 模型管理模块
模型输出目录规范 模型导入(转换)任务执行完成后,华为HiLens将转换后的模型输出至指定的OBS路径。针对不同的转换任务,基于Ascend芯片,其模型输出目录需要满足一定的规范要求。华为HiLens当前对模型输出目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输出目录说明如下所示。
”训练的模型。 华为HiLens 只能导入ModelArts中训练的模型文件,不能导入ModelArts的模型。 导入(转换)模型 在HiLens Studio界面左侧,单击。 页面左侧将显示您在ModelArts训练好的模型列表。 图1 模型列表 选择待导入、转换的模型,单击“
模型管理模块 模型加密(可选) 创建模型实例 模型推理 示例-模型管理
字符串 模型文件的路径。 可根据自己在新建技能>填写技能内容时上传模型的方式查看模型文件的路径。 方式一:在“模型”字段添加多个模型。此时获取模型路径请参见获取模型路径。 方式二:提前将多个模型和代码一起打包上传至OBS,“代码上传方式”选择“从OBS上传文件”。此时模型文件的路
模型配置文件 模型配置文件是一个json文件,模型在加载的时候将会根据这个文件自动加载合适的模型并进行输入的预处理。本小节将介绍该json文件的具体结构。 表1 参数说明 参数名 参数类型 是否必填 说明 ModelCfgs ArrayList<ModelCfg> 是 模型配置。ModelCfg参数说明请见表2。
管理算法模型 开发算法模型 导入(转换)模型 模型输入目录规范 模型输出目录规范 父主题: 控制台开发技能
模型推理 将数据输入模型进行推理,推理结束后将推理结果返回。 接口调用 virtual HiLensEC hilens::Model::Infer(const InferDataVec & inputs, InferDataVec & outputs) 参数说明 表1 参数说明 参数名
om”格式的模型文件,选择“Encrypt Model”。 弹出“Encrypt Model”对话框。 图1 加密模型 “Encrypt Model”对话框中显示了模型密钥,单击“OK”。 在左侧“model”目录下会生成带密钥的模型文件,为区别于原模型,名称后缀增加“.en”。 图2
模型推理 模型初始化成功后,调用infer接口进行模型推理。灌入一组数据,并得到推理结果。输入数据的类型不是uint8或float32数组组成的list将会抛出一个ValueError。 接口调用 hilens.Model.infer(inputs) 参数说明 表1 参数说明 参数名
创建模型 构造一个模型。HiLens kit可以使用昇腾310芯片支持的模型来进行推理,使用此方法来构造一个后续用于推理的模型。模型构造失败则会抛出一个CreateError,并在日志上打印出错误码(例如0x1013011为模型路径错误)。当返回的对象被析构时,对应的模型资源也被释放。