检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
发送POST请求 发送一个POST请求。此方法是同步的,请求发送过程中会阻塞直到发送完毕。支持TLS1.2安全协定,超时设为20秒。 接口调用 int hilens::POST(const std::string & url, const Json::Value & body, long
裁剪图片 对图片进行裁剪。 接口调用 HiLensEC hilens::Preprocessor::Crop(const cv::Mat & src, cv::Mat & dst, unsigned int x, unsigned int y, unsigned int w, unsigned
转换图片颜色格式 转换图片的颜色格式。opencv原生未提供RGB/BGR到NV12/NV21的转换选项,故在这里做补充。 接口调用 HiLensEC hilens::CvtColor(const cv::Mat & src, cv::Mat & dst, CvtCode code
构造用于输出的显示器 构造显示器,用来将图片显示到显示器或是输出到视频流。如果创建失败则抛出一个CreateError,开发者可以查看技能日志或输出来定位错误原因。 如果是H264_FILE类型的,需要注意,生成的文件仅是h264编码的裸视频流,不含帧率等信息,而且HiLens Framework
难例图片判断 根据结果判断输入图片是否是难例。 接口调用 virtual bool Filter(const float inferResult[], const int size); virtual bool Filter(const std::vector<Bbox> &bboxList
示例-预处理 预处理模块示例如下所示: import hilens import cv2 import numpy as np def run(): # 构造摄像头 cap = hilens.VideoCapture() # 获取一帧画面,自带摄像头获取图像为
最新动态 本文介绍了华为HiLens各特性版本的功能发布和对应的文档动态,新特性将在各个区域(Region)陆续发布,欢迎体验。 2021年6月 序号 功能名称 功能描述 阶段 1 订购华为RPA-WeAutomate工具 华为RPA-WeAutomate工具结合OCR、NLP等深度学习
模型推理 将数据输入模型进行推理,推理结束后将推理结果返回。 接口调用 virtual HiLensEC hilens::Model::Infer(const InferDataVec & inputs, InferDataVec & outputs) 参数说明 表1 参数说明 参数名
HiLens Framework_C++简介 HiLens Framework开发工具包(HiLens Framework SDK,HiLens Framework Software Development Kit)是HiLens Kit上运行的HiLens Framework的c
启动技能后,异常停止什么原因? 技能启动后异常停止,首先可在控制台查看技能异常停止的原因,然后根据原因采取解决方式。 查看故障原因 在技能列表的状态栏查看故障原因,即可查看启动技能、停止技能失败的原因,如图1所示。 图1 查看原因 具体操作如下: 登录华为Hilens管理控制台,在管理控制台左侧菜单栏选择
使用手机实时视频流编写/调试代码 新建技能开发项目,或打开已有的技能项目后,您就可以在HiLens Studio中通过编辑和调试技能逻辑代码,开发自己的技能。 当前技能项目已提供技能模板,可根据技能模板开发自己的技能代码,详情请见编辑逻辑代码。 编辑完技能逻辑代码后,HiLens
开发模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把TensorFlow
环境准备 环境搭建 查看您的编译机Linux系统环境。 执行uname -a可查看Linux系统信息,例如查看x86_64的ubuntu系统信息: Linux ubuntu 4.4.0-144-generic #170-Ubuntu SMP Thu Mar 14 11:56:20
开发算法模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把
什么是华为HiLens 华为HiLens为端云协同AI应用开发与运行管理平台,对接高性能的开发与推理框架ModelBox,支持部署华为云ModelArts平台训练的模型,提供云上管理平台、丰富的技能市场和开发者工具与插件,帮助用户高效开发AI应用,并将其部署到多种端侧计算设备运行和在线管理
示例-EIServices模块 EIServices模块输出示例代码如下: import hilens import cv2 import numpy as np import base64 import json def run(): # 使用图片作为输入 f=
使用HiLens Studio如何配置运行时配置? 问题描述 部分技能在运行的时候,需要技能使用者配置相关参数的值,即运行时配置。比如一般人脸判断的技能都需要用户上传人脸库。 那么开发者在HiLens Studio开发技能时,如何对技能添加运行时配置的参数及其参数规格,供技能使用者在使用技能时配置运行时配置的值
配置订阅消息 为指定技能订阅消息后,当技能有输出时,订阅对象会收到邮件或短信通知。 例如某一技能具备检测陌生人并同时发送消息的功能,即该技能在“技能详情”页面的“产品描述”中提示“本技能支持发送订阅消息”,您在安装部署该技能后配置订阅对象,这样当设备检测到陌生人时,所配置的订阅对象将会收到邮件或短信通知
升级HiLens Kit系统固件版本 使用智能边缘系统注册设备之前需要升级HiLens Kit系统固件版本至2.2.200.011(TR6)。升级HiLens Kit系统固件版本前请仔细阅读如下内容。 升级须知 系统固件版本低于2.2.200.011,可以进行升级固件。系统固件版本查询方式
Tensorflow算子边界 “.om”模型支持的Tensorflow算子边界如表1所示。 表1 TensorFlow算子边界 序号 Python API C++ API 边界 1 tf.nn.avg_pool AvgPool Type:Mean 【参数】 value:4-D tensor