检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
模型输入目录规范 在本地开发模型后或在ModelArts开发并转换模型后,针对Ascend芯片,其模型输入目录需要满足一定的规范要求。华为HiLens当前对模型输入目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输入目录需符合如下规范。 | |---xxxx
模型输出目录规范 模型导入(转换)任务执行完成后,华为HiLens将转换后的模型输出至指定的OBS路径。针对不同的转换任务,基于Ascend芯片,其模型输出目录需要满足一定的规范要求。华为HiLens当前对模型输出目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输出目录说明如下所示。
ok_pod_number Integer 在实例上运行成功的作业数 cur_pod_number Integer 在实例上正在运行的作业数 sum_pod_number Integer 在实例上运行过的作业总数 fail_pod_number Integer 在实例上运行失败的作业数 pending_pod_number
升级HiLens_Device_Agent固件版本 如果设备生产商推送了新版本的固件,可通过专业版华为HiLens管理控制台升级HiLens Framework版本。随着业务不断演进,工程师将不断升级HiLens Framework版本,为保证您的设备可以运行更新更好的技能,建议及时升级版本。
技能开发流程介绍 在华为HiLens控制台选择“HiLens安全帽检测”技能模板新建技能后,您可以自主上传数据训练模型,开发安全帽检测技能,实现安全帽检测功能,并快速创建技能,一键部署至端侧设备。 图1 HiLens安全帽检测技能流程 表1 HiLens安全帽检测技能说明 流程 说明
开发模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把
Gallery发布技能 开发者完成技能的开发、调试后,可以把自己的技能分享发布至ModelArts AI Gallery中,同时您可以设置相关费用,基于其他用户的订购,可收到相应的报酬。 前提条件 已完成技能开发,且技能已完成安装调试,调试结果满足业务诉求。 父主题: 控制台开发技能
导入/转换本地开发模型 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在HiLens Studio开发技能时,需要将模型导入HiLens Studio。 本章节介绍如何将本地开发的模型导入HiLens Studio,以及针
HDMI:直接通过设备的HDMI接口输出到显示屏,目前只支持一路数据显示到HDMI。 hilens.RTMP:实时输出到RTMP服务器供用户查看。 hilens.H264_FILE:输出到文件(h264编码的裸流)供用户查看。 path 否 字符串 如果类型为HDMI则忽略此参数,如果是RTMP则path为RTMP服
开发算法模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才
模型配置文件 模型配置文件是一个json文件,模型在加载的时候将会根据这个文件自动加载合适的模型并进行输入的预处理。本小节将介绍该json文件的具体结构。 表1 参数说明 参数名 参数类型 是否必填 说明 ModelCfgs ArrayList<ModelCfg> 是 模型配置。ModelCfg参数说明请见表2。
设备告警提示目录空间满怎么办? SSH登录HiLens Kit设备,通过基本命令cat /run/all_active_alarm df -h查看P2区(/dev/mmcblk0p2,即根目录)告警。 建议存储的文件可以挪至其他区,如P8,不要在根目录下放大量数据文件。 父主题:
默认值false host_pid Boolean 应用实例是否与主机共PID命名空间,默认值false migration Boolean 应用实例故障是否迁移,指定节点组部署时必选,默认值false restart_policy String 应用实例重启策略,可选值Always、OnFailure、Never
测等技能,模块说明如表1所示。用户可以开发Python版本的技能并在HiLens Kit上运行。 图1 HiLens Framework框架 表1 模块说明 序号 模块 功能 1 Input Manager 输入模块:负责视频、音频等输入数据的接入管理。 2 Media Processor
默认值false host_pid Boolean 应用实例是否与主机共PID命名空间,默认值false migration Boolean 应用实例故障是否迁移,指定节点组部署时必选,默认值false restart_policy String 应用实例重启策略,可选值Always、OnFailure、Never
具与插件,支持纳管多种设备类型,帮助用户将AI能力在线部署到端侧设备,并提供统一管理接口,实现企业级AI业务快速集成与落地。 图2 专业版HiLens架构 专业版HiLens管理控制台 提供开发工具和插件、技能开发、轻量级集群等功能,支持用户部署AI技能到多种异构的端侧设备上并进行统一管理。
支持部署基于开源框架ModelBox开发的AI应用,提供便捷开发工具与插件,高效开发与运行时管理。 企业级应用,引领生态 技能市场持续上线适用于各类设备的AI应用,开发者可快速部署验证。 支持开发者分享AI应用至AI Gallery,用户订阅后可通过HiLens进行部署。
在注册HiLens Kit至控制台之前,您需要连接PC和HiLens Kit。 连接PC和HiLens Kit连接PC和HiLens Kit SSH登录HiLens Kit 使用SSH连接设备HiLens Kit,用Linux指令进行操作。 SSH登录HiLens Kit设备 组网配置 HiLens
餐包。用户可以购买按需套餐包,扣费时计算时长会先在套餐包内进行抵扣,抵扣完后的剩余计算时长默认转回按需计费方式。 商用 2020年10月 序号 功能名称 功能描述 阶段 1 发布HiLens Studio新版 HiLens Studio新版本分为基础版和专业版,针对新用户,在申请公测时需要选择开通HiLens
host_network 是 Boolean 应用实例是否启用主机网络,不启用则使用端口映射,默认值false host_pid 否 Boolean 应用实例是否与主机共PID命名空间,默认值false migration 否 Boolean 应用实例故障是否迁移,指定节点组部署时必选,默认值false