检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
难例设置 参数 说明 模型名称 难例筛选模型的名称,用户无需填写。 模型类型 难例筛选的模型类型,比如图像分类、物体检测,用户无需填写。 摄像头 当前模型下选择上传指定摄像头的难例数据。 输出数据集 训练难例筛选模型的数据集。用户需要提前在ModelArts创建难例数据集。 总样本量
ok_pod_number Integer 在实例上运行成功的作业数 cur_pod_number Integer 在实例上正在运行的作业数 sum_pod_number Integer 在实例上运行过的作业总数 fail_pod_number Integer 在实例上运行失败的作业数 pending_pod_number
技能开发流程介绍 在华为HiLens控制台选择“HiLens安全帽检测”技能模板新建技能后,您可以自主上传数据训练模型,开发安全帽检测技能,实现安全帽检测功能,并快速创建技能,一键部署至端侧设备。 图1 HiLens安全帽检测技能流程 表1 HiLens安全帽检测技能说明 流程 说明
开发模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把
升级HiLens_Device_Agent固件版本 如果设备生产商推送了新版本的固件,可通过专业版华为HiLens管理控制台升级HiLens Framework版本。随着业务不断演进,工程师将不断升级HiLens Framework版本,为保证您的设备可以运行更新更好的技能,建议及时升级版本。
删除部署 如果不再需要某个部署,可在专业版HiLens管理控制台删除部署。 在专业版HiLens管理控制台“设备管理”页面,单击设备名称,进入设备详情页。 默认进入“部署列表”页签。 选择待删除的部署,单击操作列的“更多>删除”。 在提示框中,单击“确定”,删除部署。 如果设备报
ok_pod_number Integer 在实例上运行成功的作业数 cur_pod_number Integer 在实例上正在运行的作业数 sum_pod_number Integer 在实例上运行过的作业总数 fail_pod_number Integer 在实例上运行失败的作业数 pending_pod_number
训练模型 选择训练数据后,基于已标注的训练数据,选择预训练模型、配置参数,用于训练安全帽检测模型。 前提条件 已创建用于存储数据的OBS桶及文件夹,且数据存储的OBS桶与ModelArts Pro在同一区域,详情请见创建桶。 已在华为HiLens控制台选择“HiLens安全帽检测
评估模型 训练得到模型之后,整个开发过程还不算结束,需要对模型进行评估和考察。一次性很难获得一个满意的模型,需要反复的调整算法参数、数据,不断评估训练生成的模型。 一些常用的指标,如精准率、召回率、F1值等,能帮助您有效的评估,最终获得一个满意的模型。 前提条件 已在华为HiLe
模型适配HiLens Studio 由于HiLens Studio开发工具包升级至新版本C7X,使得目前HiLens Studio仅支持C7X版本的模型,即输出的模型是NHWC格式。而HiLens Kit设备支持C3X版本模型,即输出的模型是NCHW格式。如果您使用旧版本的开发工具包在HiLens
Gallery发布技能 开发者完成技能的开发、调试后,可以把自己的技能分享发布至ModelArts AI Gallery中,同时您可以设置相关费用,基于其他用户的订购,可收到相应的报酬。 前提条件 已完成技能开发,且技能已完成安装调试,调试结果满足业务诉求。 父主题: 控制台开发技能
要确保账户未欠费。 安装技能至设备,需要提前在华为HiLens控制台注册HiLens Kit设备,详细操作指导请见注册HiLens Kit。 在华为HiLens控制台自动创建的技能只能安装至同一账号同一区域下注册的HiLens Kit设备。 直接部署 在“应用开发>服务部署”页面
导入/转换ModelArts开发模型 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在HiLens Studio开发技能时,需要将模型导入HiLens Studio。 本章节介绍如何将在ModelArts开发的模型导入HiLens
HDMI:直接通过设备的HDMI接口输出到显示屏,目前只支持一路数据显示到HDMI。 hilens.RTMP:实时输出到RTMP服务器供用户查看。 hilens.H264_FILE:输出到文件(h264编码的裸流)供用户查看。 path 否 字符串 如果类型为HDMI则忽略此参数,如果是RTMP则path为RTMP服
开发算法模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才
工作。 步骤1:新建产品 步骤2:订购技能 步骤3:使用技能 准备工作 已注册华为账号开通华为云,并完成实名认证。在使用华为HiLens前检查账号状态,账号不能处于欠费或冻结状态。 步骤1:新建产品 登录华为HiLens管理控制台,单击左侧导航栏“设备管理>产品管理”,进入“产品管理”页面。
模型配置文件 模型配置文件是一个json文件,模型在加载的时候将会根据这个文件自动加载合适的模型并进行输入的预处理。本小节将介绍该json文件的具体结构。 表1 参数说明 参数名 参数类型 是否必填 说明 ModelCfgs ArrayList<ModelCfg> 是 模型配置。ModelCfg参数说明请见表2。
工作。 步骤1:新建产品 步骤2:订购技能 步骤3:使用技能 准备工作 已注册华为帐号开通华为云,并完成实名认证。在使用华为HiLens前检查帐号状态,帐号不能处于欠费或冻结状态。 步骤1:新建产品 登录华为HiLens管理控制台,单击左侧导航栏“设备管理>产品管理”,进入“产品管理”页面。
测等技能,模块说明如表1所示。用户可以开发Python版本的技能并在HiLens Kit上运行。 图1 HiLens Framework框架 表1 模块说明 序号 模块 功能 1 Input Manager 输入模块:负责视频、音频等输入数据的接入管理。 2 Media Processor
设备告警提示目录空间满怎么办? SSH登录HiLens Kit设备,通过基本命令cat /run/all_active_alarm df -h查看P2区(/dev/mmcblk0p2,即根目录)告警。 建议存储的文件可以挪至其他区,如P8,不要在根目录下放大量数据文件。 父主题: