检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ken接口获取(响应消息头中X-Subject-Token的值)。 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 size Integer 本次返回的列表长度 total Long 满足条件的记录数 certs Array of CertBase objects
version String 分组版本 V1:全局分组 V2:应用级分组 roma_app_id String 分组归属的集成应用编号。 分组版本V2时必填。 roma_app_name String 分组归属的集成应用名称 表5 UrlDomain 参数 参数类型 描述 id String
out,由于格式限定,出参的value也需要填写,可填写符合数据类型的任意值,不影响输出结果。 数据API中对存储过程的调用,用String和int来区分字符串和数值,无需加单引号,这一点和SQL要求不一样。 在后端服务的Headers、Parameters或者Body中定义的参数名不能相同,否则将被覆盖。
批量生产(发送)消息可以灵活使用,在消息并发多的时候,批量发送,并发少时,单条发送。这样能够在减少调用次数的同时保证消息发送的实时性。 图2 消息逐条生产与消费 此外,批量消费消息时,消费者应按照接收的顺序对消息进行处理、确认,当对某一条消息处理失败时,不再需要继续处理本批消息中的后续消息,直接对已正确处理的消息进行确认即可。
String 后端API为签名认证时绑定的签名密钥编号 最小长度:1 最大长度:64 roma_app_id String 后端API归属的集成应用编号 更新后端API时,status=4为后端API的已部署状态,该状态下后端API归属的集成应用编号不能修改。 最小长度:1 最大长度:65
content:Base64加密后的字符串 返回信息 返回解密后的字符串 public static java.lang.String encode(byte[] content) 对字符数组进行Base64加密 输入参数 content:待加密的字符数组 返回信息 返回加密后的字符串 public
opo/updateResponse 消息发送方 物联网平台 消息接收方 边设备 参数说明 字段名 必选/可选 类型 参数描述 mid 必选 Integer 命令ID。 statusCode 必选 Integer 请求处理的结果码。 “0”表示成功。 非“0”表示失败。 statusDesc
C++ SDK使用说明 操作场景 使用C++语言调用APP认证的API时,您需要先获取SDK,参考API调用示例调用API。 前提条件 已获取API的调用信息,具体请参见开发准备。 安装openssl库。 apt-get install libssl-dev 安装curl库。 apt-get
QueueConfig类说明 路径 com.roma.apic.livedata.config.v1.QueueConfig 说明 与RabbitMqConfig和RabbitMqProducer配合使用,对队列进行配置。 构造器详情 public QueueConfig(String
FDI各类数据库支持哪些数据类型? FDI各类数据库支持的数据类型有: Kafka数据库:string MySQL数据库:integer,bigint,number,varchar,char,float,date,timestamp,datetime Oracle数据库:inte
表名存在乱码导致Camel访问数据库失败 原因分析 访问数据库使用参数不正确,导致组合任务启动失败,任务终止。 解决方案 检查数据库中是否有表名存在乱码的情况,如果存在请和数据库管理员沟通后删除乱码表名的表,然后重新启动任务。 父主题: 数据集成组合任务
则。 mqs_topic string 是 转发目的端的MQS的Topic名称。 connect_address string 是 MQS Broker的连接地址。 destination string 是 消息转发的目的端的类型,目前只支持ROMA_MQS,KAFKA。 mqs_sasl_ssl
API发布到RELEASE环境可以正常访问,发布到非RELEASE环境无法访问? 添加x-stage请求头后即可访问,值为环境名。 父主题: 服务集成
ConnectionConfig类说明 路径 com.roma.apic.livedata.config.v1.ConnectionConfig 说明 与RabbitMqConfig和RabbitMqProducer配合使用,对RabbitMQ客户端进行连接配置。 构造器详情 public
server-id的值应为大于1的整数,请根据实际规划设置,并且在创建数据集成任务时设置的“Server Id”值需要此处设置的值不同。 expire_logs_days为Binlog日志文件保留时间,超过保留时间的Binlog日志会被自动删除,应保留至少2天的日志文件。 “gtid_mode
String getType() 获取数据源的类型 返回信息 返回数据源类型 public String getUrl() 获取连接字符串。 返回信息 返回连接字符串 public String getUser() 获取用户名 返回信息 返回用户名 public String getPassword()
用户Token。通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token的值)。 表3 请求Body参数 参数 是否必选 参数类型 描述 sql 否 String 需要检测的SQL。 最小长度:1 最大长度:20000 响应参数 状态码: 200 表4 响应Body参数
tables 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目的ID,获取方式请参见API参考的“附录 > 获取项目ID”章节。 最小长度:1 最大长度:64 instance_id 是 String 实例ID。 最小长度:1 最大长度:64
向DWS写入数据时越来越慢怎么解决 原因分析 查看界面上的采集数据,如果写入数据耗时在秒级,属于正常的情况。如果写入几千条数据超过5秒,一般是性能劣化的表现。 解决方案 如果对DWS的某个表频繁访问,会导致写入性能逐渐降低,需要对DWS进行调优,例如,定时使用analyze规划表、VACUUM
可参考以下三种方法进行处理: Kafka通道的topic中的数据老化时间为6小时,可以等待脏数据被清理掉后启动任务。 删除原任务并重建,那么Kafka通道中的topic会被删除,脏数据会被清理掉。 对于组合任务,可以删除此表,启动任务后,等Writer端消耗掉此表的数据,再将表加回来重新采集。 父主题: