检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HDMI输出黑屏或者卡住是什么原因? 启动了多个HDMI输出的技能会导致黑屏或卡屏。 如果技能是HDMI输出,仅支持输出一路视频,则只能运行一路技能,检查是否接入多路视频。 如果接入多路视频,可在代码中指定仅输出其中一路视频。另外,在切换HDMI输出的技能时,先停止运行中的技能,再启动另一个技能。 请通过查看日志进一步定位原因。
如何查看设备上是否绑定华为云账号? 一台HiLens Kit设备只能注册到一个华为云账号下,不能被多个华为云账号同时注册。 因此,判断HiLens Kit设备是否绑定华为云账号,只能在注册设备时,发现是否提示设备已被注册,暂时无法查看设备具体注册的华为云账号信息。 父主题: 注册设备
模型输入目录规范 在本地开发模型后或在ModelArts开发并转换模型后,针对Ascend芯片,其模型输入目录需要满足一定的规范要求。华为HiLens当前对模型输入目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输入目录需符合如下规范。 | |---xxxx
一般是AI软件集成方、硬件厂商、AI部署人员、AI运维人员等。这些用户可以直接注册端侧设备到HiLens管理控制台,在平台的技能市场上选购或定制合适的AI应用(比如车牌判断、安全帽判断等),一键安装到端侧设备,即可满足这些用户的需求。 上述用户都能在以下应用场景,但不限于以下场景中使用华为HiLens。
ok_pod_number Integer 在实例上运行成功的作业数 cur_pod_number Integer 在实例上正在运行的作业数 sum_pod_number Integer 在实例上运行过的作业总数 fail_pod_number Integer 在实例上运行失败的作业数 pending_pod_number
模型输出目录规范 模型导入(转换)任务执行完成后,华为HiLens将转换后的模型输出至指定的OBS路径。针对不同的转换任务,基于Ascend芯片,其模型输出目录需要满足一定的规范要求。华为HiLens当前对模型输出目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输出目录说明如下所示。
技能开发流程介绍 在华为HiLens控制台选择“HiLens安全帽检测”技能模板新建技能后,您可以自主上传数据训练模型,开发安全帽检测技能,实现安全帽检测功能,并快速创建技能,一键部署至端侧设备。 图1 HiLens安全帽检测技能流程 表1 HiLens安全帽检测技能说明 流程 说明
开发模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把
ok_pod_number Integer 在实例上运行成功的作业数 cur_pod_number Integer 在实例上正在运行的作业数 sum_pod_number Integer 在实例上运行过的作业总数 fail_pod_number Integer 在实例上运行失败的作业数 pending_pod_number
Gallery发布技能 开发者完成技能的开发、调试后,可以把自己的技能分享发布至ModelArts AI Gallery中,同时您可以设置相关费用,基于其他用户的订购,可收到相应的报酬。 前提条件 已完成技能开发,且技能已完成安装调试,调试结果满足业务诉求。 父主题: 控制台开发技能
导入/转换本地开发模型 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在HiLens Studio开发技能时,需要将模型导入HiLens Studio。 本章节介绍如何将本地开发的模型导入HiLens Studio,以及针
HDMI:直接通过设备的HDMI接口输出到显示屏,目前只支持一路数据显示到HDMI。 hilens.RTMP:实时输出到RTMP服务器供用户查看。 hilens.H264_FILE:输出到文件(h264编码的裸流)供用户查看。 path 否 字符串 如果类型为HDMI则忽略此参数,如果是RTMP则path为RTMP服
开发算法模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才
模型配置文件 模型配置文件是一个json文件,模型在加载的时候将会根据这个文件自动加载合适的模型并进行输入的预处理。本小节将介绍该json文件的具体结构。 表1 参数说明 参数名 参数类型 是否必填 说明 ModelCfgs ArrayList<ModelCfg> 是 模型配置。ModelCfg参数说明请见表2。
设备告警提示目录空间满怎么办? SSH登录HiLens Kit设备,通过基本命令cat /run/all_active_alarm df -h查看P2区(/dev/mmcblk0p2,即根目录)告警。 建议存储的文件可以挪至其他区,如P8,不要在根目录下放大量数据文件。 父主题:
测等技能,模块说明如表1所示。用户可以开发Python版本的技能并在HiLens Kit上运行。 图1 HiLens Framework框架 表1 模块说明 序号 模块 功能 1 Input Manager 输入模块:负责视频、音频等输入数据的接入管理。 2 Media Processor
默认值false host_pid Boolean 应用实例是否与主机共PID命名空间,默认值false migration Boolean 应用实例故障是否迁移,指定节点组部署时必选,默认值false restart_policy String 应用实例重启策略,可选值Always、OnFailure、Never
默认值false host_pid Boolean 应用实例是否与主机共PID命名空间,默认值false migration Boolean 应用实例故障是否迁移,指定节点组部署时必选,默认值false restart_policy String 应用实例重启策略,可选值Always、OnFailure、Never
针对基于昇腾D310的设备,平台目前支持HiLens Kit、Atlas 500智能小站的注册、管理和注销。HiLens Kit注册方式请见注册HiLens Kit,Atlas 500注册方式请参与论坛讨论。 针对使用海思35xx系列芯片的设备,其设备厂商可以利用HiLens管理
默认值false host_pid Boolean 应用实例是否与主机共PID命名空间,默认值false migration Boolean 应用实例故障是否迁移,指定节点组部署时必选,默认值false restart_policy String 应用实例重启策略,可选值Always、OnFailure、Never