检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
导入自定义模型前,需要将自定义的模型上传到OBS服务,非“.om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“.pb”模型文件和配置文件“.cfg”。 上传操作可参见OBS快速入门。模型文件上传至OBS的目录需满足一定规范,详情请见模型输入目录规范。
导入自定义模型前,需要将自定义的模型上传到OBS服务,非“.om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“.pb”模型文件和配置文件“.cfg”。 上传操作可参见OBS快速入门。模型文件上传至OBS的目录需满足一定规范,详情请见模型输入目录规范。
获得技能配置 获取技能配置,即技能配置文件中的内容解析成的Json对象(jsoncpp)。 注意此函数每次都会读取配置文件并解析成Json对象,所以如果需要读多个配置项,请将返回值存为一个变量,不要过于频繁的调用GetSkillConfig()。 接口调用 Json::Value
表示多个摄像头采用同样的配置。 技能结果上传接口 请求消息 推理结果将以HTTPS POST请求方法推送到应用系统server的指定URL地址。 POST {sendUrl} 其中sendUrl在技能运行时配置中设置。 请求消息头 技能以json形式返回推理结果,因此消息头“Co
获取难例配置 接口调用 Json::Value GetHardSampleConfig() 返回值 Json::Value对象,可以解析出各配置项的值。 父主题: 难例上传模块
om”模型支持的TensorFlow和Caffe算子边界,详情请见附录Caffe算子边界和Tensorflow算子边界。 前提条件 已在本地开发模型。本地自定义的训练模型,非“.om”格式的模型上传文件包含caffe模型文件“.caffemodel”和“.prototxt”和配置文件“.cfg”,或tensorflow的“
ND(N=4)”和“5D”。仅在网络中算子的输入数据同时支持“ND”和“5D”两种格式时,指定该参数才生效。“ND”表示模型中算子按“NCHW”转换成通用格式,“5D”表示模型中算子按华为自研的5维转换成华为格式。“5D”为默认值。 fp16_high_precsion 生成高精度模型,指定是否生成高精度“FP16
如果原始模型是TensorFlow,由于C7X新版本模型转换工具将TensorFlow和Caffe的模型输出统一成NHWC格式,而C3X模型转换工具将TensorFlow模型转换成“om”时,输出的是NCHW格式,因此需要对HiLens Studio和HiLens Kit模型后处理进行不同的处理,将代码建立两个分支。