检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
单击“添加配置”,可添加多个Edge Restful。 表1 Edge Restful输入 参数 说明 URL 视频流服务器提供用于获取rtsp地址的rest接口,仅支持http或https协议。 rtsp地址相对位置 在视频流服务器提供的响应体中,rtsp地址的相对位置。例如:"data/url"表示rtsp地址
获得技能配置 获取技能配置,即技能配置文件中的内容解析成的Json对象(jsoncpp)。 注意此函数每次都会读取配置文件并解析成Json对象,所以如果需要读多个配置项,请将返回值存为一个变量,不要过于频繁的调用GetSkillConfig()。 接口调用 Json::Value
单击“添加配置”,可添加多个Edge Restful。 表1 Edge Restful输入 参数 说明 URL 视频流服务器提供用于获取rtsp地址的rest接口,仅支持http或https协议。 rtsp地址相对位置 在视频流服务器提供的响应体中,rtsp地址的相对位置。例如:"data/url"表示rtsp地址
正常运行时,华为HiLens实时给您发送业务告警信息。 设备需要把固件升级到1.0.7或以上版本才支持告警功能,设备需要把固件升级到1.1.0或以上版本才能支持告警通知功能,固件升级请参见升级HiLens_Device_Agent固件版本。 设备只有处于“在线”状态才能将告警信息同步至华为HiLens控制台。
'counter': 1 }] } 响应消息 响应消息头 响应消息头由服务器端(应用系统)收到请求消息后返回。 响应消息头可包含如下两部分。 一个HTTP状态代码,从2xx成功代码到4xx或5xx错误代码。或者可以返回服务定义的状态码。
方式二:提前将多个模型和代码一起打包上传至OBS,“代码上传方式”选择“从OBS上传文件”。此时模型文件的路径为模型相对于代码所在文件位置的相对路径。 图1 技能内容 返回值 <class 'hilens.Model'>模型对象。 模型构造失败则会抛出一个CreateErro
HardSampleInferface &hilens::GetHardSampleInstance() 返回值 返回一个HardSampleInferface对象。 父主题: 难例上传模块
"image": "4AAQSkZJRgABAQAAAQABAAD/2wBDAAIBAQE...", } 响应消息 响应消息头 响应消息头由服务器端(应用系统)收到请求消息后返回。 响应消息头可包含如下两部分。 一个HTTP状态代码,从2xx成功代码到4xx或5xx错误代码。或者可以返回服务定义的状态码。
pb”或“.caffemodel”格式。然后再使用导入(转换)模型功能将其转换为Ascend310芯片支持的“.om”格式。 后续操作 模型开发完成后,需要把模型导入至HiLens Studio。可通过本地导入和OBS导入两种方式导入模型至HiLens Studio,具体操作请参见导入/转换本地开发模型。
获取难例配置 接口调用 Json::Value GetHardSampleConfig() 返回值 Json::Value对象,可以解析出各配置项的值。 父主题: 难例上传模块
"ori_image": "4AAQSkZJRgABAQAAAQABAAD/2wBDAAIBAQE...", } 响应消息 响应消息头 响应消息头由服务器端(应用系统)收到请求消息后返回。 响应消息头可包含如下两部分。 一个HTTP状态代码,从2xx成功代码到4xx或5xx错误代码。或者可以返回服务定义的状态码。
查询应用实例列表 功能介绍 获取用户实例列表。 URI GET /v3/{project_id}/ai-mgr/pods 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见获取项目ID 表2 Query参数 参数 是否必选
查询应用部署详情 功能介绍 获取部署的详情信息。 URI GET /v3/{project_id}/ai-mgr/deployments/{deployment_id} 表1 路径参数 参数 是否必选 参数类型 描述 deployment_id 是 String 应用部署ID project_id
查询应用部署列表 功能介绍 获取部署列表。 URI GET /v3/{project_id}/ai-mgr/deployments 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见获取项目ID 表2 Query参数 参数
初始化 初始化HardSampleInferface对象。 接口调用 virtual bool hilens::HardSampleInferface::Init(const float thresholdOne, const float thresholdTwo, const DetectionFilterType
”和“从OBS上传代码”。 如果您的代码逻辑较简单,建议直接在线编辑代码。 如果您的代码结构比较复杂,推荐用本地IDE开发完成后,使用OBS上传代码zip或tar.gz包的方式,上传操作可参见OBS快速入门。上传到OBS需要收取一定费用,收费规则请参见对象存储服务 OBS。 上传
一定规范,详情请见模型输入目录规范。 上传到OBS需要收取一定费用,收费规则请参见对象存储服务 OBS。 上传至OBS时,需确保OBS桶与华为HiLens在同一区域,且OBS文件夹名称满足如下要求: 文件夹名称不能包含以下字符:\:*?"<>|。 文件夹名称不能以英文句号(.)或斜杠(/)开头或结尾。
批量部署 功能介绍 通过指定设备id列表或者设备标签将应用部署下发到多个设备上。 URI PUT /v3/{project_id}/ai-mgr/deployments/{deployment_id}/nodes 表1 路径参数 参数 是否必选 参数类型 描述 deployment_id
部分更新应用部署 功能介绍 更新应用部署部分信息。 URI PATCH /v3/{project_id}/ai-mgr/deployments/{deployment_id} 表1 路径参数 参数 是否必选 参数类型 描述 deployment_id 是 String 部署ID project_id
caffemodel”格式。然后再使用导入(转换)模型功能将其转换为Ascend310芯片支持的“.om”格式。 后续操作 模型开发完成后,需要把模型导入至华为HiLens控制台。针对TensorFlow和Caffe引擎开发的算法模型,会通过导入(转换)模型功能将其转换为Ascend310芯片支持的“