检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查询配置项详情 功能介绍 根据配置项id查询某个配置项详情 URI GET /v3/{project_id}/ai-mgr/configmaps/{config_map_id} 表1 路径参数 参数 是否必选 参数类型 描述 config_map_id 是 String 配置项ID
查询应用部署列表 功能介绍 获取部署列表。 URI GET /v3/{project_id}/ai-mgr/deployments 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见获取项目ID 表2 Query参数 参数
如何不通过HDMI,使用其他方式输出技能结果? 问题描述 如果不通过HDMI输出和查看技能结果,是否有其他方式获取技能输出结果? 解决方法 可以通过HiLens Framework中的RTMP接口构造一个显示器,将视频(图片帧)输出到显示器类,详情请见构造一个用于输出的显示器。 RTMP
新建产品时3516CV500适用于哪些型号的产品? 新建产品时,设备芯片型号为3518ev300\3516ev200\3516ev300时,均可选择“3516CV500”。 更多详情请参见新建产品。 父主题: 管理产品
权限及授权项说明 如果您需要对您所拥有的华为HiLens服务进行精细的权限管理,您可以使用统一身份认证服务(Identity and Access Management,简称IAM),如果华为云账号已经能满足您的要求,不需要创建独立的IAM用户,您可以跳过本章节,不影响您使用华为HiLens
技能可以直接分发到海思35XX系列芯片上吗? 适用于海思35XX系列芯片的技能不同于HiLens Kit,暂时需要将其从控制台的“技能开发>技能管理”页面上单击具体技能操作列的“下载”,下载具体技能的SDK,详情请参考管理我的技能。下载SDK后,将其手动集成到具体的固件系统里。不同技能的使用详情请参考具体的
将激活订单与设备解绑 功能介绍 将激活订单与设备解绑。 URI POST /v3/{project_id}/ai-mgr/nodes/{node_id}/deactivate 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID。获取方法请参见获取项目
获取激活记录列表 功能介绍 获取激活记录列表。 URI GET /v3/{project_id}/ai-mgr/nodes/{node_id}/activation/records 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID。获取方法请参见获取项目
启动/停止部署下的指定实例 功能介绍 启动/停止部署下的指定实例。 URI POST /v3/{project_id}/ai-mgr/deployments/{deployment_id}/{pod_id}/action/{action} 表1 路径参数 参数 是否必选 参数类型
激活设备(购买端边云协同平台服务) 超过1台的设备,购买HiLens端边云协同平台服务后,需要激活权限,才能安装技能管理页面下的基础技能,即在控制台新建的技能。 注册的第一台设备不需要购买HiLens端边云协同平台服务,也不需要激活权限,可直接安装基础技能至该台设备上。 激活方式
查询配置项列表 功能介绍 获取配置项详情,以列表形式返回。 URI GET /v3/{project_id}/ai-mgr/configmaps 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID。获取方法请参见获取项目ID 表2 Query
激活设备(购买端云协同AI运行服务) 注册设备后,需购买HiLens端云协同AI运行服务,并在设备管理页面对设备进行权限激活,该设备方能部署技能。 注册的第一台设备不需要购买HiLens端云协同AI运行服务,也不需要激活权限,可直接安装基础技能至该台设备上。 激活方式 激活需购买HiLens
使用运行服务费激活设备 功能介绍 使用运行服务费激活设备。 URI POST /v3/{project_id}/ai-mgr/nodes/{node_id}/activate 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID。获取方法请参见获取项目
导入(转换)模型 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在开发技能前,需要将模型导入华为HiLens。 模型要求 导入的模型可为“.om”格式、“.pb”格式或“.caffemodel”格式,其中“.om”格式的模型才可以在
导入/转换本地开发模型 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在HiLens Studio开发技能时,需要将模型导入HiLens Studio。 本章节介绍如何将本地开发的模型导入HiLens Studio,以及针对非
导入/转换ModelArts开发模型 技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在HiLens Studio开发技能时,需要将模型导入HiLens Studio。 本章节介绍如何将在ModelArts开发的模型导入HiLens
与其它服务的关系 华为HiLens与周边服务的依赖关系如图1所示。 图1 华为HiLens与其他服务的关系示意图 与ModelArts的关系 AI开发平台ModelArts向华为HiLens提供AI计算基础设施,用ModelArts处理数据集后训练出模型,HiLens管理控制台通过模型管理模块进行导入
开发算法模型 前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把
HiLens Framework_Python简介 HiLens Framework通过封装底层接口、实现常用的管理功能,让开发者可以在华为HiLens管理控制台上方便地开发技能,培育AI生态。 HiLens Framework的分层结构如图1所示,HiLens Framework
多个技能的SDK如何在小海思35XX系列芯片上使用 ? 多个技能的SDK使用互相独立,接口并不一致,可按照需求集成单个或者多个技能,具体集成方式您可以通过提交工单咨询。 父主题: 管理产品