检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
示例-输出 本示例展示了多种输出端的接口调用,在使用前请确保各种输出端已连接并可用,若您的某种输出端条件不具备,请将示例代码当中相应的代码注释掉或者删除,再运行示例代码。输出模块示例如下所示: #! /usr/bin/python3.7 import hilens import cv2
使用前必读 在华为HiLens管理控制台上开发技能时需要在线编辑或上传逻辑代码,而在逻辑代码中需要用到HiLens Framework,本文档针对开发者在开发可运行在HiLens Kit设备的技能的时候,介绍如何在逻辑代码中使用HiLens Framework API,您可以根据表
模型输入目录规范 在本地开发模型后或在ModelArts开发并转换模型后,针对Ascend芯片,其模型输入目录需要满足一定的规范要求。华为HiLens当前对模型输入目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输入目录需符合如下规范。 | |---xxxx.caffemodel
导入/转换ModelArts开发模型 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在HiLens Studio开发技能时,需要将模型导入HiLens Studio。 本章节介绍如何将在ModelArts开发的模型导入HiLens
查询作业详情 功能介绍 通过作业ID查询作业详情。 URI GET /v3/{project_id}/ai-mgr/deployments/{deployment_id}/tasks/{task_id} 表1 路径参数 参数 是否必选 参数类型 描述 deployment_id 是
升级固件后,设备超过5分钟处于离线状态? 重启设备,操作步骤如下: 网线连接PC与HiLens Kit 互通PC与HiLens Kit网络 SSH远程连接HiLens Kit 网线连接PC与HiLens Kit HiLens Kit后面板接口如图1和表1所示。 图1 后面板接口 表
编辑作业 功能介绍 编辑作业。 URI POST /v3/{project_id}/ai-mgr/deployments/{deployment_id}/task/{task_id} 表1 路径参数 参数 是否必选 参数类型 描述 deployment_id 是 String 部署
查看技能详情 新建可训练技能后,您可以查看技能详情,包括技能开发的配置信息、历史版本、应用资产、应用监控。 前提条件 已在华为HiLens控制台选择可训练技能模板新建技能,详情请见新建可训练技能。 查看技能详情 登录华为HiLens管理控制台,在左侧导航栏选择“技能开发>技能管理”
构造图像预处理器 该接口用于构造一个预处理器,用于进行Resize/Crop操作(3559硬件加速)。 接口调用 hilens.Preprocessor() 返回值 返回预处理器实例。 如果失败则抛出一个CreateError。开发者可以在查看技能日志输出。 父主题: 预处理模块
创建作业 功能介绍 创建作业。 URI POST /v3/{project_id}/ai-mgr/deployments/{deployment_id}/tasks 表1 路径参数 参数 是否必选 参数类型 描述 deployment_id 是 String 部署ID,从专业版HiLens
Tensorflow算子边界 “.om”模型支持的Tensorflow算子边界如表1所示。 表1 TensorFlow算子边界 序号 Python API C++ API 边界 1 tf.nn.avg_pool AvgPool Type:Mean 【参数】 value:4-D tensor
HiLens Studio使用 HiLens Studio中如何解压缩文件? 使用HiLens Studio如何配置运行时配置? HiLens Studio如何备份技能? 为什么添加新AK/SK后,进入HiLens Studio页面没有数据? 在HiLens Studio 如何导出技能源代码
如何上传模型至华为HiLens? 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在开发技能前,需要将模型导入华为HiLens。 模型要求 导入的模型可为“.om”格式、“.pb”格式或“.caffemodel”格式,其中“.
模型加密(可选) HiLens Kit支持模型加密,模型加密后,仅支持HiLens Framework接口调用。 模型加密操作 下载加密工具:crypto_tool,并拷贝到设备系统的“/tmp”目录下,赋予执行权限: chmod +x crypto_tool 使用方法请参见工具的帮助信息
创建模型实例 根据技能的模型,创建一个模型实例。HiLens Kit可以使用昇腾310芯片支持的模型来进行推理,使用此方法来构造一个后续用于推理的模型。 当返回的对象被析构时,对应的模型资源也被释放。 当前支持创建普通模型和加密模型 接口调用 hilens.Model(filepath
创建模型 构造一个模型。HiLens kit可以使用昇腾310芯片支持的模型来进行推理,使用此方法来构造一个后续用于推理的模型。模型构造失败则会抛出一个CreateError,并在日志上打印出错误码(例如0x1013011为模型路径错误)。当返回的对象被析构时,对应的模型资源也被释放
示例-模型管理 模型管理示例如下: #! /usr/bin/python3.7 import hilens import numpy as np def run(): # 构造摄像头 cap = hilens.VideoCapture() # 获取一帧画面
【下线公告】华为HiLens服务HiLens Studio下线公告 华为云计划于2023/09/15 00:00(北京时间)下线华为HiLens服务在华北-北京四区域的HiLens Studio功能。 下线范围 下线区域:华北-北京四区域。 下线影响 正式下线后,用户将无法再使用HiLens
查询作业列表 功能介绍 查询当前部署下所有作业,返回详情列表。 URI GET /v3/{project_id}/ai-mgr/deployments/{deployment_id}/tasks 表1 路径参数 参数 是否必选 参数类型 描述 deployment_id 是 String
功能介绍 华为HiLens包括云侧管理平台、端侧设备管理以及开发者工具和插件。 云侧平台(基础版与专业版共有功能) AI应用开发 提供统一技能开发框架,封装基础组件,简化开发流程,提供统一的API接口,支持多种深度学习开发框架。 提供模型训练、开发、调试、部署、管理一站式服务,无缝对接用户设备