检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
预训练模型 当前服务提供安全帽检测预置模型“saved_model.pb”,请勾选预训练模型。 确认信息后,单击“开始训练”。 图1 模型训练 模型训练一般需要运行一段时间,等模型训练完成后,“应用开发>模型训练”页面下方显示训练详情。
开发模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把TensorFlow
模型管理简介 hilens::Model类 模型管理器,使用模型管理器加载模型并进行推理。 #include <model.h> 析构函数 ~Model() virtual hilens::Model::~Model( ) Model析构时会释放掉hiai::Graph等资源。
创建模型 构造一个模型。HiLens kit可以使用昇腾310芯片支持的模型来进行推理,使用此方法来构造一个后续用于推理的模型。模型构造失败则会抛出一个CreateError,并在日志上打印出错误码(例如0x1013011为模型路径错误)。
模型管理 模型管理简介 创建模型 模型推理
创建模型实例 根据技能的模型,创建一个模型实例。HiLens Kit可以使用昇腾310芯片支持的模型来进行推理,使用此方法来构造一个后续用于推理的模型。 当返回的对象被析构时,对应的模型资源也被释放。
模型管理模块 模型加密(可选) 创建模型实例 模型推理 示例-模型管理
示例-模型管理 模型管理示例如下: #!
模型推理 将数据输入模型进行推理,推理结束后将推理结果返回。
模型推理 模型初始化成功后,调用infer接口进行模型推理。灌入一组数据,并得到推理结果。输入数据的类型不是uint8或float32数组组成的list将会抛出一个ValueError。
管理模型 开发模型 导入/转换本地开发模型 导入/转换ModelArts开发模型 加密模型 父主题: 开发环境HiLens Studio
前提条件 已在华为HiLens控制台选择“HiLens安全帽检测”技能模板新建技能,并训练模型,详情请见训练模型。 评估模型 工作流会用测试数据评估模型,在“应用开发>评估模型”页面,查看评估结果。 模型评估 图1 模型评估 训练模型的版本、标签数量、测试集数量。
导入(转换)模型 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在开发技能前,需要将模型导入华为HiLens。
导入/转换本地开发模型 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在HiLens Studio开发技能时,需要将模型导入HiLens Studio。
接口调用 和未加密模型一样调用接口,详情请见: 创建模型实例 模型推理 示例-模型管理 父主题: 模型管理模块
在左侧“model”目录下会生成带密钥的模型文件,为区别于原模型,名称后缀增加“.en”。 图2 带密钥模型 父主题: 管理模型
获取模型路径 获得技能模型所在目录的路径(末尾带”/“)。适用于创建技能时从模型管理页面选择模型并下发的情况,模型文件会被下载至一个专门存储模型的位置,通过此函数来获取模型所在目录。如果HiLens Framework没有获取模型所在目录,则返回当前路径(即代码所在目录)。
获取模型路径 返回技能模型目录的路径。 对于技能代码包和模型分离的情况,模型会下载到特定目录,使用此函数来获取该路径。如果HiLens Framework没有获取模型所在目录,则返回当前路径。
模型输入目录规范 在本地开发模型后或在ModelArts开发并转换模型后,针对Ascend芯片,其模型输入目录需要满足一定的规范要求。华为HiLens当前对模型输入目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输入目录需符合如下规范。
模型输出目录规范 模型导入(转换)任务执行完成后,华为HiLens将转换后的模型输出至指定的OBS路径。针对不同的转换任务,基于Ascend芯片,其模型输出目录需要满足一定的规范要求。