检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
name}-{version}-{release}.{aarch}.rpm │ ├── app.config 表明在运行环境中启动业务服务的命令和停止服务的命令,以及业务服务的名字,必选:参数说明见下表 │ ├── bin 必选:用户自定义的业务代码 │ │ ├──main.sh
文档导读 章节 说明 HiLens Framework_C++简介 快速了解HiLens Framework开发工具包。 环境准备 介绍使用HiLens Framework开发工具包的准备工作。 视频输入模块 音频输入模块 预处理 模型管理 输出模块 资源管理 日志模块 HiLens
String IAM用户名 resource_spec_code String 计费资源码 cloud_service_type String 云服务计费类型 active_content String 激活内容 active_flag Integer 激活状态(0:未激活,1:已激活且
支持部署容器镜像与软件包格式AI应用。 接口统一,方便集成和管理。 AI开发框架升级,开发便捷 支持部署基于开源框架ModelBox开发的AI应用,提供便捷开发工具与插件,高效开发与运行时管理。 企业级应用,引领生态 技能市场持续上线适用于各类设备的AI应用,开发者可快速部署验证。 支持开发者分享AI应用至AI
aarch64 aarch64 GNU/Linux 下载交叉编译工具,并解压下载的压缩包。 如果您的编译机是x86_64的Linux系统,可以直接下载交叉编译工具,里面已经包含了HiLens Kit上需要的库。 进入交叉编译工具目录后,执行指令pwd获取路径位置,编译时设置编译器路径。
HiLens安全帽检测技能说明 流程 说明 详细指导 准备数据 在使用安全帽检测技能模板开发技能之前,您需要提前准备用于模型训练的数据,上传至OBS服务中。 准备数据 选择数据 在使用HiLens安全帽检测技能模板开发应用时,您需要新建训练数据集,后续训练模型操作是基于您创建的训练数据集。
"dataset_name" : "dataset-a3ae", "dataset_path" : "https://a.b.csss.obs.cn-north-7.ulanqab.huawei.com/nali/", "model_algorithm" : "i
ModelArts自动学习功能训练生成的模型,暂时不支持用于HiLens平台。 线下开发 线下开发指您在本地使用自己熟悉的算法模型开发工具,开发算法模型。 当前仅支持TensorFlow和Caffe引擎开发的算法模型,且您开发的模型需保存为“.pb”或“.caffemodel
首次订阅消息后,需将技能重启,订阅对象才能收到订阅消息,重启操作参见启动或停止技能。 订阅消息会产生一定的费用,详细收费标准请参见消息通知服务。 前提条件 技能支持消息通知的功能。由开发者开发技能的时候设定,详细指导和API介绍可参见《开发指南》。 若技能没有配置推送消息功能,普通用户将无法收到技能的消息通知。
"FaceLib": { //配置名 "from": "file source", //文件类型值,表示文件来自哪个服务。比如OBS "path": "file path" //文件类型值,表示文件的路径 } } ], } 图2
om”格式的模型。如果不是“.om”格式,HiLens Studio支持模型转换,详细操作请参见导入/转换本地开发模型。 由于HiLens Studio开发工具包升级至新版本C7X,使得目前HiLens Studio仅支持C7X版本的模型,即输出的模型是NHWC格式。而HiLens Kit设备支持
效果,从中获取一定的收入或知识。这些用户可以在HiLens管理控制台进行AI应用开发。HiLens对接开源框架ModelBox,提供开发者工具与插件,开发者很方便就可以完成AI应用开发。AI应用开发完成后,可以一键式部署到端侧设备查看运行效果。同时也可以把AI应用发布到技能市场给
获得技能配置 获取技能配置,即技能配置文件中的内容解析成的Json对象(jsoncpp)。 注意此函数每次都会读取配置文件并解析成Json对象,所以如果需要读多个配置项,请将返回值存为一个变量,不要过于频繁的调用GetSkillConfig()。 接口调用 Json::Value
构造HardSample实例 接口调用 HardSampleInferface &hilens::GetHardSampleInstance() 返回值 返回一个HardSampleInferface对象。 父主题: 难例上传模块
所有华为云服务,并且只需为您所使用的服务付费。具体申请信息请见帐号注册和实名认证。 由于华为HiLens服务依赖其他服务,所以需要在开始使用华为HiLens前获得相关服务的权限,包含ModelArts、OBS和SWR服务,华为HiLens与相关服务的关系请参见与其它服务的关系。 设备部署技能流程
模型详情 解决模型转换问题 针对日志报错信息解决模型转换问题。 确认上传的模型文件是否正确 导入自定义模型前,需要将自定义的模型上传到OBS服务,非“.om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“
获取难例配置 接口调用 Json::Value GetHardSampleConfig() 返回值 Json::Value对象,可以解析出各配置项的值。 父主题: 难例上传模块
odelBox,提供云上管理平台、丰富的技能市场和开发者工具与插件,帮助用户高效开发AI应用,并将其部署到多种端侧计算设备运行和在线管理。 使用流程简介 使用流程简介 订购HiLens产品 订购Hilens端边云协同平台服务 订购技能 管理订单 注册设备 注册设备 准备技能 技能市场购买技能
初始化 初始化HardSampleInferface对象。 接口调用 virtual bool hilens::HardSampleInferface::Init(const float thresholdOne, const float thresholdTwo, const DetectionFilterType
如何使HiLens Studio停止计费? 使用HiLens Studio时,计费项包括存储资源和计算及推理资源,详情请见HiLens Studio计费模式。 HiLens Studio可通过如下方式停止计费。 停止技能实例:停止推理资源计费。 退订HiLens Studio版本:停止存储资源和推理资源的计费。