检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
init("hello") run() hilens.terminate() 设置技能配置参数的相关步骤如下: 登录华为HiLens控制台,在开发技能时填写运行时配置,即技能在运行时用户需要配置的参数,详情请参见新建技能。 技能开发完成后,将技能部署至您的设备上,详情请参见部署和调试技能。
用户创建技能失败的原因有哪些? 创建技能失败的原因有: 技能参数存在错误,如名称非法、所填OBS地址不存在。 网络存在延时、中断等问题,创建技能时需保证网络正常。 华为云账号处于欠费或冻结状态。 父主题: 技能开发
、模型推理、结果输出等;模型是人工智能算法经由大数据训练而成,负责技能运行中关键场景的推理。 华为HiLens的技能市场提供了丰富的技能供用户选择。 按应用场景划分,技能可应用于:智能园区、智慧家庭、智能车载、智能商超和其他等场景。 按不同的设备划分,技能分为2种,一种是适用于A
模型输入目录规范 在本地开发模型后或在ModelArts开发并转换模型后,针对Ascend芯片,其模型输入目录需要满足一定的规范要求。华为HiLens当前对模型输入目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输入目录需符合如下规范。 | |---xxxx
HDMI输出黑屏或者卡住是什么原因? 启动了多个HDMI输出的技能会导致黑屏或卡屏。 如果技能是HDMI输出,仅支持输出一路视频,则只能运行一路技能,检查是否接入多路视频。 如果接入多路视频,可在代码中指定仅输出其中一路视频。另外,在切换HDMI输出的技能时,先停止运行中的技能,再启动另一个技能。 请通过查看日志进一步定位原因。
ok_pod_number Integer 在实例上运行成功的作业数 cur_pod_number Integer 在实例上正在运行的作业数 sum_pod_number Integer 在实例上运行过的作业总数 fail_pod_number Integer 在实例上运行失败的作业数 pending_pod_number
获取设备列表 获取设备告警列表 获取设备告警列表 表2 专业版控制台接口说明 接口类型 说明 设备管理 管理设备相关操作,包括查询设备列表、注册设备、查询设备详情等操作。 固件管理 管理固件相关操作,包括查询固件列表。 应用部署管理 管理应用部署相关操作,包括查询应用部署列表、创建应用部署、查询应用部署详情等操作。
技能开发流程介绍 在华为HiLens控制台选择“HiLens安全帽检测”技能模板新建技能后,您可以自主上传数据训练模型,开发安全帽检测技能,实现安全帽检测功能,并快速创建技能,一键部署至端侧设备。 图1 HiLens安全帽检测技能流程 表1 HiLens安全帽检测技能说明 流程 说明
开发模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把
模型输出目录规范 模型导入(转换)任务执行完成后,华为HiLens将转换后的模型输出至指定的OBS路径。针对不同的转换任务,基于Ascend芯片,其模型输出目录需要满足一定的规范要求。华为HiLens当前对模型输出目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输出目录说明如下所示。
描述 configmap 是 ConfigMap object 配置项详情 workspace_id 否 String 工作空间ID,默认为注册账号/子账号的default工作空间,可通过专业版HiLens控制台展开工作空间列表获取到工作空间ID 表4 ConfigMap 参数 是否必选
ok_pod_number Integer 在实例上运行成功的作业数 cur_pod_number Integer 在实例上正在运行的作业数 sum_pod_number Integer 在实例上运行过的作业总数 fail_pod_number Integer 在实例上运行失败的作业数 pending_pod_number
Gallery发布技能 开发者完成技能的开发、调试后,可以把自己的技能分享发布至ModelArts AI Gallery中,同时您可以设置相关费用,基于其他用户的订购,可收到相应的报酬。 前提条件 已完成技能开发,且技能已完成安装调试,调试结果满足业务诉求。 父主题: 控制台开发技能
导入/转换本地开发模型 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在HiLens Studio开发技能时,需要将模型导入HiLens Studio。 本章节介绍如何将本地开发的模型导入HiLens Studio,以及针
描述 configmap 是 ConfigMap object 配置项详情 workspace_id 否 String 工作空间ID,默认为注册账号/子账号的default工作空间,可通过专业版HiLens控制台展开工作空间列表获取到工作空间ID 表5 ConfigMap 参数 是否必选
HDMI:直接通过设备的HDMI接口输出到显示屏,目前只支持一路数据显示到HDMI。 hilens.RTMP:实时输出到RTMP服务器供用户查看。 hilens.H264_FILE:输出到文件(h264编码的裸流)供用户查看。 path 否 字符串 如果类型为HDMI则忽略此参数,如果是RTMP则path为RTMP服
开发算法模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才
模型配置文件 模型配置文件是一个json文件,模型在加载的时候将会根据这个文件自动加载合适的模型并进行输入的预处理。本小节将介绍该json文件的具体结构。 表1 参数说明 参数名 参数类型 是否必填 说明 ModelCfgs ArrayList<ModelCfg> 是 模型配置。ModelCfg参数说明请见表2。
参数类型 描述 configmap ConfigMap object 配置项详情 workspace_id String 工作空间ID,默认为注册账号/子账号的default工作空间,可通过专业版HiLens控制台展开工作空间列表获取到工作空间ID 表4 ConfigMap 参数 参数类型
设备告警提示目录空间满怎么办? SSH登录HiLens Kit设备,通过基本命令cat /run/all_active_alarm df -h查看P2区(/dev/mmcblk0p2,即根目录)告警。 建议存储的文件可以挪至其他区,如P8,不要在根目录下放大量数据文件。 父主题: