检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
附录:订阅的通知消息报文 以普通设备为例介绍订阅管理中MQS各报文示例。 消息属性 { "deviceIdentifier":"iottest2", // 设备标识 "eventTime":"1588843914884", // 消息时间 "gatewayIdentifier":"null"
填写标注下具体的标注值名称,例如,人员信息。 类型 标注值的类型,分为文本和数值两种。 单位 标注值的单位,根据实际标注值选择是否填写。例如标注值为数量,此处可填写位。 描述 填写此标注值的描述信息。 可搜索 选择此标注值是否支持搜索。 标注信息填写完成后单击“确定”,完成创建。 添加标注。
在左侧的导航栏选择“应用业务模型ABM > 模型采集 > 数据源”,单击“创建数据源”,进入创建数据源页面。接着选择“本地文件”类型的数据源,然后在数据源输入框中输入数据源名称。 在页面中配置数据源的连接信息,如下表所示。 表1 数据源连接信息 参数 配置说明 数据源名称 填写数据源的名称,根据规划自定义。建议您
单击“操作”栏下的,可以新增参数。 说明: 第一个参数的参数名默认为“根节点”,参数类型默认为“object”,均不支持修改。 返回值 配置返回值参数。在“返回值”栏下单击后在下拉框可以新增不同的返回值。 参数名:输入参数名。 参数展示名:输入参数展示名。 类型:选择参数类型,可选择“object”、“ar
校验规则:是否对输入的参数值进行校验。 无:不校验。 不允许有特殊字符:校验参数值是否有特殊字符,约定字符范围包含数字、字母、中划线、下划线。 默认值:参数值如果没有填写时,是否传递一个默认值,置空则表示不传递默认值。 是否必填:参数是否必须填写。 读端参数定义 定义数据源的读端参数,在数据集成任务的源端选择该
重试次数 ROMA Connect调用后端服务失败后的重试次数。 值为-1时,表示不开启重试功能,但除POST和PATCH外的其他请求类型会默认重试1次。 值为0-10时,表示开启重试功能,并根据设置的值执行重试。 高级设置 前端请求方法 选择前端API的请求方法。“ANY”表示该API支持任意请求方法。
导入规则前,请检查导入规则的实例中是否存在重名规则,若存在重名规则,会导致导入规则失败。 导入规则前,请确保规则的配额满足需求。 导入文件格式为csv,并需要使用UTF-8 BOM编码。 在使用导出的文件导入规则时: 如果要新增规则,则需要另外新建导入文件,并在新建的文件中添加新的规则信息。
导入产品前,请检查导入产品的实例中是否存在重名产品,若存在重名产品,会导致导入产品失败。 导入产品前,请确保产品的配额满足需求。 导入文件格式为csv,并需要使用UTF-8 BOM编码。 在使用导出的文件导入产品时: 如果要新增产品,则需要另外新建导入文件,并在新建的文件中添加新的产品信息。
建议不要设置敏感信息,以防泄露。 参数位置:参数在API请求中的位置。 path:API请求的URI,已默认配置。 method:API请求方法,已默认配置。 header:API请求Header参数的第一个值。 query:API请求Query参数的第一个值。 system:系统参数。 参数:用作规则匹配的参数名。
将MRS Hive的服务端机器绑定EIP,在配置文件中将IP换成EIP,在hdfs-site.xml文件中添加“dfs.client.use.datanode.hostname”配置项,值设为“true”。 修改用户名为管理员用户或者修改HDFS URL为用户有权限的目录。 如果排除以
导入设备前,请检查导入设备的实例中是否存在重名设备,若存在重名设备,会导致导入设备失败。 导入设备前,请确保设备的配额满足需求。 导入文件格式为csv,并需要使用UTF-8 BOM编码。 在使用导出的文件导入设备时: 如果要新增设备,则需要另外新建导入文件,并在新建的文件中添加新的设备信息。
"status":401} 执行以下命令修改logstash.conf文件中user和password的值,修改为与步骤4.c中设置的用户名密码一致。 vim /ELK/logstash/logstash.conf 执行以下命令修改kibana.yml文件中elasticsearch.username和elasticsearch
Creating, Starting or Restarting state cannot be deleted. 实例状态为创建中、启动中、停止中、重启中时不允许执行删除操作。 请检查实例状态。 400 MQS.00400100 The number of instance IDs in
导入API前,您需要在导入的API定义文件中补全API的Swagger扩展定义。 导入API前,请确保API和API分组的配额满足需求。 如果导入API时选择“生成新的分组”,则会使用API定义文件中的“info.title”字段值作为API分组名称。在导入API前,不能手动修改API定义文件中的“info.title”字段值。
规格应以实际测试报告为准。 数据集成中,消息类数据&非消息类数据任务数不随RCU值变化,开启后固定1000个。 表2 集成能力规格说明 集成能力 RCU分配指标 规格指标/RCU 最小分配RCU 最小调整RCU步长 组合应用(流运行) 运行中的Flow任务数量 30条 2 1 服务集成(API管理)
客户端参数配置建议 Kafka客户端的配置参数很多,以下提供Producer和Consumer几个常用参数配置。 表1 Producer参数 参数 默认值 推荐值 说明 acks 1 高可靠:all 高吞吐:1 收到Server端确认信号个数,表示procuder需要收到多少个这样的确认信号,算消
导入API前,您需要在导入的API定义文件中补全API的Swagger扩展定义。 导入API前,请确保API和API分组的配额满足需求。 如果导入API时选择“生成新的分组”,则会使用API定义文件中的“info.title”字段值作为API分组名称。在导入API前,不能手动修改API定义文件中的“info.title”字段值。
ON对象或数组。 context中的数据为您自定义的字段,认证通过后可作为系统参数(后端认证参数)映射到API的后端服务请求参数中。其中API后端服务中填写的“系统参数名称”与context中的参数名称必须完全一致,且区分大小写。context中的参数名称必须以英文字母开头,支持
Filebeat 5个 1核 256MB 当Filebeat已读取日志,但尚未发送至其它组件前,会把日志数据缓存到磁盘中,因此磁盘占用为已读取日志文件总大小,最大值为200MB*日志文件数。 10个 2核 256MB ELK:Logstash 5个 2核 1GB 同Filebeat的磁盘要求。
参数 是否必选 参数类型 描述 topic 是 String Topic名称。 partition 否 Integer 分区编号,默认值为-1,若传入值为-1,则重置所有分区。 message_offset 否 Integer 重置消费进度到指定偏移量。 如果传入offset小于当前