检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
iLens Kit设备支持C3X版本模型,即输出的模型是NCHW格式。 因此HiLens Studio会同时转换出C7X和C3X的模型,需要通过模型配置文件指定在不同平台运行不同模型,具体使用方法可参考HiLens Studio中的技能模板,或参考模型适配HiLens Studio。
从用户角色的维度来看,华为HiLens主要有两种类型的用户角色:AI应用开发者与AI应用使用者。 AI应用开发者 一般是从事AI开发的技术人员、高校老师/学生、培训机构、AI开发爱好者等群体。这些用户想开发具备AI能力的应用,并且可以方便地部署到设备实时查看应用的运行效果,从中获
Framework SDK适用于哪些设备? 模型转换时,如何确定输入张量形状? 华为HiLens支持的模型必须是ModelArts训练出的模型吗? 在华为HiLens上已开发的技能是否能部署到使用P4显卡的边缘服务器上? 开发可训练技能时,模型训练报错“数据集发布失败”怎么办? 如何使用多线程进行技能推理?
选择新建技能中新建的技能,单击操作列的“运行时配置”。 按表2填写运行时配置参数,填完单击“执行配置”。 表2 运行时配置参数说明 参数 说明 server_url 用于接收POST数据的服务器地址。可以在cmd命令行中用config命令查找,这里使用的是步骤1:外接IPC摄
外接IPC摄像头 输出方式 POST 摄像头部署 摄像头的架设会影响车型车标模型的准确率。在实际架设中,尽量保证拍摄画面清晰,光照充足,汽车角度较正,无遮挡,比如前边的车容易挡住后边的车。 摄像头参数基本设置 不同品牌的摄像头都有一些基本的视频设置,例如分辨率、帧率和码率等,参数要求如表2所示。
华为HiLens和ModelArts的关系 ModelArts是面向AI开发者的一站式开发平台,核心功能是模型训练。华为HiLens偏AI应用开发,并实现端云协同推理和管理。 您可以使用ModelArts训练算法模型,然后在ModelArts或者华为HiLens中转换成华为HiLens支持的“om”格式
需要用到以下设置: 运行命令:控制镜像运行的实际命令。 运行参数:传递给运行命令的参数。 环境变量 在容器中添加环境变量,用于设置技能运行时的变量,可通过修改部署配置来。 在“环境变量”页签,单击“添加环境变量”,当前支持“手动添加”、“密钥导入”、“配置项导入”、“变量引入”。
训练模型 评估模型 训练得到模型之后,整个开发过程还不算结束,需要对模型进行评估和考察。 一些常用的指标,如精准率、召回率、F1值等,能帮助您有效的评估,最终获得一个满意的模型。 评估模型 部署应用 模型准备完成后,您可以快速创建技能,并一键安装技能至端侧设备。也可以进入HiLens
Kit不能显示中文怎么办? 问题描述 技能上所标注的标签是中文,安装技能至HiLens Kit上,运行技能时无法显示中文标签。 解决方法 显示中文需要安装pillow包,安装pillow包需要源码编译。 进入论坛参与讨论,下载已编译好的zip包安装pillow包。 父主题: HiLens
客流统计算法根据头肩检测统计客流的大小。摄像头的架设会影响头肩检测模型的准确率。在实际架设中,尽量保证拍摄画面清晰,光照充足,人形较正,无遮挡。监控视频场景下尽量保证拍摄的画面能拍到更多的人形。 摄像头参数基本设置 不同品牌的摄像头都有一些基本的视频设置,例如分辨率、帧率和码率等,具体要求如下:
华为HiLens支持哪些模型? HiLens支持导入的模型可为“.om”格式、“.pb”格式或“.caffemodel”格式,其中“.om”格式的模型才可以在HiLens Kit上运行,“.pb”格式或“.caffemodel”格式的模型在“导入(转换)”过程中,华为HiLens平台会自动将模型转换为“
需要用到以下设置: 运行命令:控制镜像运行的实际命令。 运行参数:传递给运行命令的参数。 环境变量 在容器中添加环境变量,用于设置技能运行时的变量,可通过修改部署配置来。 在“环境变量”页签,单击“添加环境变量”,当前支持“手动添加”、“密钥导入”、“配置项导入”、“变量引入”。
GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分内容。当资源不存在的时候,PATCH可能会去创建一个新的资源。
构造图像预处理器 该接口用于构造一个预处理器,用于进行Resize/Crop操作(3559硬件加速)。 接口调用 hilens.Preprocessor() 返回值 返回预处理器实例。 如果失败则抛出一个CreateError。开发者可以在查看技能日志输出。 父主题: 预处理模块
Studio继续使用推理资源,您可以停止HiLens Studio正在运行的技能实例。 登录华为HiLens管理控制台,在左侧导航栏中选择“技能开发>HiLens Studio”。 进入HiLens Studio 页面。 在HiLens Studio页面单击左上角的“File”,在下拉框中单击“Shutdown
std::shared_ptr<Preprocessor> hilens::Preprocessor::Create() 返回值 成功则返回预处理器的指针,初始化失败则返回nullptr。 父主题: 预处理
选择上一步骤中安装技能的设备,单击设备卡片。 进入“设备详情”页,默认展示“技能管理”页签。 选择上一步骤中安装的技能,单击操作列的“启动”,并单击“确定”,确定启动技能运行在端侧设备上。 等待一会,当状态变为“运行中”,则技能成功运行在端侧设备上。 已安装的技能状态说明如表3所示。
POST 摄像头部署 摄像头的架设会影响人脸检测模型的准确率。在实际架设中,尽量保证拍摄画面清晰,光照充足,人脸较正,无遮挡,比如前边的人脸容易挡住后边的人脸。监控视频场景下尽量保证拍摄的画面能拍到更多的正脸。 摄像头参数基本设置 不同品牌的摄像头都有一些基本的视频设置,例如分辨率、帧率和码率等,参数要求如表2所示。
预处理模块简介 hilens::Preprocessor类 硬件加速的预处理器 #include <media_process.h> 析构函数 ~Preprocessor() virtual hilens::Preprocessor::~Preprocessor() 父主题: 预处理
前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把TensorFlow和Caffe模型转换成“