检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
RabbitMqConfig类说明 路径 com.roma.apic.livedata.config.v1.RabbitMqConfig 说明 与ConnectionConfig,QueueConfig,ExchangeConfig和RabbitMqProducer配合使用,对RabbitMQ客户端进行配置。
JSON2XMLHelper类说明 路径 com.huawei.livedata.util.JSON2XMLHelper 说明 提供Json与Xml之间的相互转换。 方法列表 返回类型 方法和说明 static String JSON2XML(String json, boolean
Java客户端使用说明 操作场景 本文介绍Java版本的Kafka客户端连接指导,并完成客户端连接以及消息生产与消费的相关示例。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Java开发语言环境,具体请参见开发准备。 引入Kafka客户端 MQS基于Kafka社区版本1
Go客户端使用说明 操作场景 本文以Linux CentOS环境为例,介绍Go版本的Kafka客户端连接指导,包括Kafka客户端安装,以及生产、消费消息。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Python开发语言环境,具体请参见开发准备。 引入Kafka客户端
APIC > API调用”的“SDK”页签中下载SDK。 新版界面:登录ROMA Connect实例控制台,在“服务集成 APIC > 凭据管理”的“SDKs”页签中下载SDK。 解压后目录结构如下: 名称 说明 signer.js SDK代码 node_demo.js Nodejs示例代码
Base64Utils类说明 路径 com.roma.apic.livedata.common.v1.Base64Utils 说明 提供Base64Utils编码和解码功能。 使用示例 Base64编码示例: importClass(com.roma.apic.livedata.common
Md5Utils类说明 路径 com.roma.apic.livedata.common.v1.Md5Utils 说明 计算Md5值。 使用示例 importClass(com.roma.apic.livedata.common.v1.Md5Utils); function execute(data)
RomaWebConfig类说明 路径 com.huawei.livedata.lambdaservice.config.RomaWebConfig 说明 获取roma配置。 方法列表 返回类型 方法和说明 static String getAppConfig(String key)
Mysql到Mysql时源端报“Illegal mix of collations for operation 'UNION'”错误 原因分析 从源端数据源视图中查看,视图定义语句使用了union,但是union两边字段编码不一致,须统一编码。 解决方案 建议使用CONVERT转换为统一编码,如:CONVERT
Kafka集到Mysql目标端报“cannot find record mapping field”错误 原因分析 查看任务mapping配置,源端字段类型的长度超出目标端字段类型的长度限制,或者配置的映射字段中某个字段在源端的数据中不存在。 解决方案 检查字段映射配置的字段类型
客户端配额绑定客户端应用列表 功能介绍 客户端配额绑定客户端应用列表 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/ap
解除客户端配额和客户端应用的绑定 功能介绍 解除客户端配额和客户端应用的绑定 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI DELETE /v2/{project_
RedisClient类说明 路径 com.roma.apic.livedata.client.v1.RedisClient 说明 连接Redis设置或读取缓存(如果不指定JedisConfig,则连接到自定义后端的Function API提供的默认Redis)。 使用示例 importClass(com
多个数据源编排 一个数据API可以包含多个数据源,因此一次API请求可以涉及多个数据源,例如取第一个数据源查询结果作为第二个数据源的参数。 以MySQL为例说明,假设数据API有数据源1和数据源2,user01是数据源1的数据表和user02是数据源2的数据表,两张表的结构如下:
附录:spring-kafka对接限制 概述 spring-kafka兼容开源Kafka客户端,其与开源Kafka客户端的版本对应关系可参见Spring官网。spring-kafka兼容的Kafka客户端版本主要为2.x.x版本,而ROMA Connect消息集成的Kafka服务端版本为1
创建后端API脚本 功能介绍 在某个实例中创建后端API脚本。 URI POST /v1/{project_id}/apic/instances/{instance_id}/livedata-scripts 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是
删除后端API 功能介绍 在某个实例中删除后端API。 URI DELETE /v1/{project_id}/apic/instances/{instance_id}/livedata-apis/{ld_api_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id
MRS Hive写入时数据全部写在第一个字段里 原因分析 建表时没有使用列分隔符。 解决方案 在数据库中执行以下命令设置分隔符: alter table 表名set serdeproperties('field.delim'='分隔符') 父主题: 数据集成任务
API到MySQL的定时任务时会出现源端报“connect timeout”错误 原因分析 数据面有6个节点,其中两个节点ping不通API的IP。 解决方案 属于网络问题,需要找VPC定位。 父主题: 数据集成任务
源端API类型数据源自定义周期如何设置? 创建FDI普通任务时,当源端数据源选择API类型并且开启增量迁移时,支持自定义周期,自定义周期配置详细说明可参照以下示例: 当粒度单位为“小时”时,分别有以下四种配置场景。 以时间点2020-11-05 22:10为例,如下图。 周期指定