检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
模型配置文件 模型配置文件是一个json文件,模型在加载的时候将会根据这个文件自动加载合适的模型并进行输入的预处理。本小节将介绍该json文件的具体结构。 表1 参数说明 参数名 参数类型 是否必填 说明 ModelCfgs ArrayList<ModelCfg> 是 模型配置。ModelCfg参数说明请见表2。
配置项(ConfigMap)是一种用于存储工作负载所需配置信息的资源类型,配置项允许您将配置文件从容器镜像中解耦,从而增强容器工作负载的可移植性。 配置项价值如下: 使用配置项功能可以帮您管理不同环境、不同业务的配置。 方便您部署相同工作负载的不同环境,配置文件支持多版本,方便您进行更新和回滚工作负载。 方便您快速将配置以文件的形式导入到容器中。
获取难例配置 读取难例配置文件,难例配置文件路径为相应技能“data”目录,如“/home/hilens/skills/***skill_path/data/hardsample_config.json”。 接口调用 hilens.get_hard_sample_config()
om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“.pb”模型文件和配置文件“.cfg”。 导入/转换模型操作 针对本地开发的模型,首先需要导入模型至HiLens Studio。针对非
更新难例配置 更新难例配置到难例配置文件,并根据输入更新云侧难例上传状态。 接口调用 HiLensEC SetHardSampleConfig(const std::string &confStr) 表1 参数说明 参数名 说明 confStr 要更新的难例配置,需要是string格式的json值。
获得技能配置 获取技能配置,即技能配置文件中的内容解析成的Json对象(jsoncpp)。 注意此函数每次都会读取配置文件并解析成Json对象,所以如果需要读多个配置项,请将返回值存为一个变量,不要过于频繁的调用GetSkillConfig()。 接口调用 Json::Value
prototxt 模型网络文件,输入目录下有且只能有一个,必填。 |---insert_op_conf.cfg 插入算子配置文件,输入目录下有且只有一个,可选。 |---plugin 自定义算子目录,输入目录下有且只能
配置防火墙 为了防止除您允许的IP地址范围之外的用户去访问HiLens Kit智能边缘系统,建议您通过SSH远程配置防火墙,防止HiLens Kit智能边缘系统受到其他攻击。 配置方式 配置硬件防火墙 如果存在硬件防火墙,请联系运维人员配置允许访问HiLens Kit设备IP地址的硬件防火墙。
更新难例配置 更新难例配置conf到难例配置文件,并根据输入更新云侧难例上传状态。 接口调用 hilens.set_hard_sample_config(conf) 参数说明 表1 参数说明 参数名 是否必选 参数类型 描述 conf 是 json 要更新的难例配置。 返回值 H
om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“.pb”模型文件和配置文件“.cfg”。 确认待转换的模型算子是否为“.om”模型支持的TensorFlow和Caffe算子边界 并非
om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“.pb”模型文件和配置文件“.cfg”。 上传操作可参见OBS快速入门。模型文件上传至OBS的目录需满足一定规范,详情请见模型输入目录规范。
om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“.pb”模型文件和配置文件“.cfg”。 确认待转换的模型算子是否为“.om”模型支持的TensorFlow和Caffe算子边界 并非
文档导读 文档指导您如何安装和配置开发环境、如何通过调用HiLens Framework SDK提供的接口函数进行二次开发。 表1 文档导读 章节 说明 HiLens Framework_C++简介 快速了解HiLens Framework开发工具包。 环境准备 介绍使用HiLens
HiLens Studio中如何解压缩文件? HiLens Studio基于Linux系统,使用Linux解压缩命令即可实现解压缩文件。 父主题: HiLens Studio使用
om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“.pb”模型文件和配置文件“.cfg”。 上传操作可参见OBS快速入门。模型文件上传至OBS的目录需满足一定规范,详情请见模型输入目录规范。
待转换的模型文件在技能项目文件中的位置。一般将模型导入至文件夹“save_model”。 Configuration 待转换模型的配置文件在技能项目文件中的位置。例如“save_model/aipp_rgb.cfg”。 Output Path 模型转换后输出位置。 Type 模型转换的类型,包括“TF-Froz
om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“.pb”模型文件和配置文件“.cfg”。 上传操作可参见OBS快速入门。模型文件上传至OBS的目录需满足一定规范,详情请见模型输入目录规范。
行进行网络配置重置? 问题处理 使用SSH远程连接HiLens Kit设备后,执行命令 rm /home/data/wifi/wifi_cfg 父主题: HiLens Kit系统操作
技能包 容器镜像 单设备部署技能的操作请见创建部署工程。 技能包 RPM格式技能包。 RPM包中包含用户的业务代码、用户的模型和业务的配置文件。 ├──{app name}-{version}-{release}.{aarch}.rpm │ ├── app.config
技能包 容器镜像 单设备部署技能的流程请见控制台新建技能流程。 技能包 RPM格式技能包。 RPM包中包含用户的业务代码、用户的模型和业务的配置文件。 ├──{app name}-{version}-{release}.{aarch}.rpm │ ├── app.config