检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
QueueConfig类说明 路径 com.roma.apic.livedata.config.v1.QueueConfig 说明 与RabbitMqConfig和RabbitMqProducer配合使用,对队列进行配置。 构造器详情 public QueueConfig(String
存储过程调用 当前数据API不支持直接创建存储过程,但是可以执行MySQL、Oracle、PostgreSQL这三种数据源的存储过程,以Oracle数据库为例说明。 数据源说明 假设数据库里面有一张表,表结构如下建表语句所示: create table sp_test(id number
生产消息接口说明 功能介绍 向指定队列发送消息,可同时发送多条消息。 每次最多发送10条。 每次发送的消息总负载不超过2MB。 endpoint为https://{rest_connect_address}:9292,通过指定实例接口查询rest_connect_address的IP地址。
为什么规则引擎的数据目的端未收到设备发送的消息? 数据目的端未收到设备发送的消息主要有以下原因: 可能是您的安全组没有添加正确的入方向规则。 请您进入“实例信息”界面,找到您的安全组。单击安全组名称进入安全组详情页面,然后根据表1添加相应的入方向规则。 表1 安全组参数 参数 端口
查看签名密钥未绑定的API列表 功能介绍 查询所有未绑定到该签名密钥上的API列表。需要API已经发布,未发布的API不予展示。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
JSON2XMLHelper类说明 路径 com.huawei.livedata.util.JSON2XMLHelper 说明 提供Json与Xml之间的相互转换。 方法列表 返回类型 方法和说明 static String JSON2XML(String json, boolean
Java客户端使用说明 操作场景 本文介绍Java版本的Kafka客户端连接指导,并完成客户端连接以及消息生产与消费的相关示例。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Java开发语言环境,具体请参见开发准备。 引入Kafka客户端 MQS基于Kafka社区版本1
Go客户端使用说明 操作场景 本文以Linux CentOS环境为例,介绍Go版本的Kafka客户端连接指导,包括Kafka客户端安装,以及生产、消费消息。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Python开发语言环境,具体请参见开发准备。 引入Kafka客户端
查看签名密钥绑定的API列表 功能介绍 查询某个签名密钥上已经绑定的API列表。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_i
查看API绑定的签名密钥列表 功能介绍 查询某个API绑定的签名密钥列表。每个API在每个环境上应该最多只会绑定一个签名密钥。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
RedisClient类说明 路径 com.roma.apic.livedata.client.v1.RedisClient 说明 连接Redis设置或读取缓存(如果不指定JedisConfig,则连接到自定义后端的Function API提供的默认Redis)。 使用示例 importClass(com
多个数据源编排 一个数据API可以包含多个数据源,因此一次API请求可以涉及多个数据源,例如取第一个数据源查询结果作为第二个数据源的参数。 以MySQL为例说明,假设数据API有数据源1和数据源2,user01是数据源1的数据表和user02是数据源2的数据表,两张表的结构如下:
附录:如何提高消息处理效率 消息生产和消费的可靠性必须由ROMA Connect、生产者和消费者协同工作才能保证,对使用ROMA Connect的生产者和消费者有如下的使用建议。 重视消息生产与消费的确认过程 消息生产 生产消息后,生产者需要根据ROMA Connect的返回信息
函数后端脚本开发说明 开发说明 函数后端通过编写函数脚本实现将多个服务封装成一个服务,在实际开发前请务必提前了解自定义后端开发要求。 函数后端当前仅支持使用JavaScript编写函数,JavaScript引擎运行于Java虚拟机,可调用ROMA Connect提供的Java类实现具体功能。
SapRfcConfig类说明 路径 com.roma.apic.livedata.config.v1.SapRfcConfig extends java.util.Properties 说明 与SapRfcClient配合使用,对sap客户端进行配置。 方法列表 返回类型 方法和说明
Kafka:表示任务完成后发送消息至MRS Kafka。 FDI任务:FDI任务结束后,支持同时自动手工调度最多五个其它普通定时任务。 应用 选择对应的集成应用。 数据源 根据“执行动作”选择的数据源类型,选择相同类型数据源。 例如执行动作选择的是“发送消息至Kafka”,此处数据源则选择“Kafka”。
配置SQL Server CDC 概述 CDC(Change Data Capture),即数据变更抓取,通过为源端数据源开启CDC,ROMA Connect可实现数据源的实时数据同步以及数据表的物理删除同步。 本章节主要介绍如何为SQL Server数据库开启CDC功能。 约束与限制
删除后端API 功能介绍 在某个实例中删除后端API。 URI DELETE /v1/{project_id}/apic/instances/{instance_id}/livedata-apis/{ld_api_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id
MRS Hive写入时数据全部写在第一个字段里 原因分析 建表时没有使用列分隔符。 解决方案 在数据库中执行以下命令设置分隔符: alter table 表名set serdeproperties('field.delim'='分隔符') 父主题: 数据集成任务
源端API类型数据源自定义周期如何设置? 创建FDI普通任务时,当源端数据源选择API类型并且开启增量迁移时,支持自定义周期,自定义周期配置详细说明可参照以下示例: 当粒度单位为“小时”时,分别有以下四种配置场景。 以时间点2020-11-05 22:10为例,如下图。 周期指定