检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
方案描述:开发者可基于华为ModelArts AI开发平台或线下服务器训练算法模型,再将模型导入HiLens平台进行技能开发,技能开发包括模型转换、创建技能、业务逻辑代码编写:模型转换包括TensorFlow模型转“.om”模型和Caffe模型转“.om”模型;基于HiLens提供的
华为HiLens会自动创建一个OBS桶用于存储技能包,桶名称命名规则为“<project_id>-hilens-skill”,您可以前往OBS服务,找到对应命名规则的OBS桶,并获取在线编辑的代码包文件。
URL:视频流服务器提供用于获取rtsp地址的rest接口,仅支持http或https协议。 rtsp地址相对位置:在视频流服务器提供的响应体中,rtsp地址的相对位置。
在华为HiLens控制台开发技能时,会占用OBS资源,需要收取一定费用,收费规则请参见对象存储服务 OBS。 新建技能的详细流程如图2所示。 使用基础技能模板:需确保平台已有可用的基础技能模板。
camera_names固定,值表示该分组配置里包含了哪些摄像头 "cameraX", "cameraY" ], "FaceLib": { //配置名 "from": "file source", //文件类型值,表示文件来自哪个服务
系统日志与应用日志默认在本地存储,如果要上传至云日志服务(LTS),可开启“日志上传”开关。 开关开启后,选择日志等级,仅对应等级的日志上传至LTS。 下载配置文件和固件 填完注册设备的基本信息,在“完成,下载固件”页面下载配置文件和固件。
确认上传的模型文件是否正确 导入自定义模型前,需要将自定义的模型上传到OBS服务,非“.om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“.pb”模型文件和配置文件“.cfg”。
检查账号是否申请华为HiLens权限,登录华为HiLens控制台,单击右侧“服务条款”,查看是否同意HiLens隐私声明并授权。 图1 申请华为HiLens权限 注册设备时提示:Network is unreachable 请检查网络配置是否配置正确,详细操作请见组网配置。
说明: 由于服务性能原因,从HiLens Studio下载文件大小限制在100M以内。 如果需要下载大文件,请使用OBS备份项目,然后在OBS下载超过限制大小的项目文件。 Delete 删除当前文件/文件夹。 Duplicate 复制当前文件/文件夹。
容器镜像文件请提前上传至容器镜像服务(SoftWare Repository for Container,简称SWR),具体操作请见上传镜像。 进入专业版控制台 在管理控制台单击左上角的“专业版”,进入专业版控制台。
使用前必读 在华为HiLens管理控制台上开发技能时需要在线编辑或上传逻辑代码,而在逻辑代码中需要用到HiLens Framework,本文档针对开发者在开发可运行在HiLens Kit设备的技能的时候,介绍如何在逻辑代码中使用HiLens Framework API,您可以根据表
编写逻辑代码 华为HiLens提供了一套HiLens Framework,HiLens Framework通过封装底层接口、实现常用的管理功能,让开发者可以方便的开发Skill,发展AI生态。详细指导和API介绍可参见《开发指南》。 HiLens Framework示例代码 HiLens
开发模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把TensorFlow
开发算法模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把
示例-EIServices模块 EIServices模块输出示例代码如下: import hilens import cv2 import numpy as np import base64 import json def run(): # 使用图片作为输入 f=
是否有HiLens Kit的详细介绍? HiLens Kit是一款具备AI推理能力的多媒体终端设备,具有强大的计算性能、高清摄像头接入、体积小、接口丰富等特点。硬件集成了Atlas 200 AI加速模块(简称Atlas 200),方便用户快速简捷的接入并使用Ascend 310 AI
Tensorflow算子边界 “.om”模型支持的Tensorflow算子边界如表1所示。 表1 TensorFlow算子边界 序号 Python API C++ API 边界 1 tf.nn.avg_pool AvgPool Type:Mean 【参数】 value:4-D tensor