正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
续费和自动续费两种方式,您可以根据需求选择。了解更多关于续费的信息,请参见续费概述。 费用账单 您可以在“费用中心 > 账单管理”查看与ROMA Connect相关的流水和明细账单,以便了解您的消费情况。如需了解具体操作步骤,请参见费用账单。 欠费 在使用云服务时,账户的可用额度
值为2的字段,但是采集到目标端值就变成了1 原因分析 Mysql驱动自动识别tinyint(1)为bit类型,所以目标端的值都变成了1。 解决方案 修改数据源配置,连接与安全配置项选择“专业”模式,在字符串最后加上tinyInt1isBit=false的配置,如:jdbc:mys
events generated with statement or mixed based replication forma,如下图所示。 解决方案 该问题是debezium当前版本的一个BUG,需要用户升级MySQL。 对于组合任务,可以尝试通过修改配置的方法规避,首先删除此表的
启用”。 可能是该实例没有打开公网访问 请在ROMA Connect上打开公网访问,具体操作步骤请查看查看实例信息。 可能是该实例没有绑定弹性IP(EIP) 请在ROMA Connect上检查实例是否已绑定EIP,未绑定EIP的实例不支持公网访问。 可能是安全组的入方向规则中端口未配置
e要早于createtime,导致任务运行时数据还没有插入updatetime的时间已经不在增量采集的时间段之内,所以部分数据采集不到。 解决方案 调整源端数据库的updatetime时间或任务配置时使用createtime作为时间戳字段。 父主题: 数据集成任务
填写连接数据库的用户名。 密码 填写连接数据库的用户密码。 数据源的接入配置示例如下所示。 默认方式的数据库连接配置示例: 图1 默认方式配置示例 专业方式的数据库连接配置示例: 图2 专业方式配置示例 完成数据源接入配置后,单击“开始检测”,检测ROMA Connect与数据源之间是否能够连通。
业务/技术模型定义管理,业务/技术模型对应元数据的自动/手动采集,提供模型查询、维护、业务与技术模型关联、数据关联分析等功能,同时提供数据访问管控、开放共享等能力,使用ROMA Connect进行模型集成,有如下优势: 支持模型采集 系统预置常用数据源的采集适配器,针对数据采集提
部署后的自定义后端是否可以修改? 已部署的自定义后端,除集成应用、后端请求方法和后端请求路径无法修改外,其他配置信息可以修改,修改后的配置需重新部署后才生效。 父主题: 服务集成
填写连接数据库的用户名。 密码 填写连接数据库的用户密码。 数据源的接入配置示例如下所示。 默认方式的数据库连接配置示例: 图1 默认方式配置示例 专业方式的数据库连接配置示例: 图2 专业方式配置示例 完成数据源接入配置后,单击“开始检测”,检测ROMA Connect与数据源之间是否能够连通。
MQS支持的Kafka服务端版本是多少? MQS支持Kafka 1.1.0、2.7版本。 父主题: 消息集成
不支持采集二进制类型的字段,例如:TINYBLOB、BLOB、MEDIUMBLOB、LONGBLOB。 不支持采集DATETIME(6)字段。 操作步骤 建议由数据库管理员进行CDC功能的配置操作,以下配置以Linux环境为例进行说明。 开启Binlog。 使用命令行工具连接到MySQL数据库所在服务器,执行以下命令以root用户登录数据库。
columns; 执行以下命令退出数据库连接。 exit; 创建XStream出站服务器。 一个XStream出站服务器只能在一个FDI集成任务中使用,若该数据库需要用于多个集成任务,需创建多个XStream出站服务器。 在命令行工具中执行以下命令以xstrmadmin用户连接到数据库实例。
com”或“IP:PORT”形式。 认证方式 选择连接WebSocket使用的认证方式。 None:表示无需认证授权,任何人都可以访问WebSocket。 Basic Auth:表示基础认证,需要输入用户名和密码进行认证。认证通过后,允许用户访问WebSocket。 用户名 仅当“认证方式”选择“Basic
收藏模型数据 概述 可以通过分组的方式将相似数据信息收藏到“我的空间”,方便查看使用。 前提条件 已完成采集技术模型和录入业务模型。 操作步骤 登录ROMA Connect,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“应用业务模型ABM > 我的空间”。
用户可以手动添加源端数据字段与目标端数据字段的映射规则,该方式适用于所有数据类型的集成场景。可以通过键值对输入或文本框输入两种方式配置Mapping映射规则。 键值对输入方式 界面默认为键值对输入方式,单击“添加字段映射”,逐条增加源端数据字段到目标端数据字段的映射规则。 文本框输入方式 单击“文本框输入”,在文本框中输入映射规则脚本,输入格式如下:
与Hostname,但是在上传文件时HDFS的Master节点返回的node节点的IP为内网IP,所以连接不通,导致FDI任务执行异常。 解决方案 修改在创建MRS Hive数据源时上传的hdfs-site.xml文件中,在hdfs-site.xml文件中添加dfs.client
填写数据库的连接IP地址。 端口 仅当“是否使用JDBC字符串”选择“否”时需要配置。 填写数据库的端口。 服务名称 仅当“是否使用JDBC字符串”选择“否”时需要配置。 填写分布式数据库系统的服务名。 JDBC字符串 仅当“是否使用JDBC字符串”选择“是”时需要配置。 填写Oracle数据
购买套餐包 ROMA Connect提供了套餐包的计费方式,使用ROMA Connect的过程中优先抵扣套餐包中的RCU时额度,超过额度的使用量按需计费。您可以根据业务需求购买RCU时套餐包。 约束与限制 套餐包按月购买,当月生效的套餐包额度仅当月有效,额度余量过期失效,不可结转
ip3:port3 #发送确认参数 acks=all #键的序列化方式 key.serializer=org.apache.kafka.common.serialization.StringSerializer #值的序列化方式 value.serializer=org.apache.kafka
修复问题后,重启任务,可以重新消费并处理未成功入库的数据。所以即使修改了任务配置,如果数据还是不符合目标端的要求,那么任务仍然执行失败。 解决方案 可参考以下三种方法进行处理: Kafka通道的topic中的数据老化时间为6小时,可以等待脏数据被清理掉后启动任务。 删除原任务并重