检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
源端为Oracle的配置与MySQL的类似,配置示例可参考MySQL配置示例。 完成源端信息配置后,继续进行下一部分配置,配置目标端数据信息。 PostgreSQL 返回页首 任务的“集成模式”为“定时”时,可以选择PostgreSQL作为源端数据源。
填写数据库的连接IP地址。 端口 仅当“是否使用JDBC字符串”选择“否”时需要配置。 填写数据库的端口。 客户端ID 填写APPCUBE系统中要连接的客户端号。 密码 数据库的登录密码。 完成数据源接入配置后,单击“测试连接”,检测ABM与数据源之间是否能够连通。
API到MySQL的定时任务时会出现源端报“connect timeout”错误 原因分析 数据面有6个节点,其中两个节点ping不通API的IP。 解决方案 属于网络问题,需要找VPC定位。 父主题: 数据集成任务
数据集成组合任务 源数据库重启等操作对组合任务是否有影响? 如何修复意外重启等原因导致的XStream模式Oracle CDC功能异常? 父主题: 数据集成
填写SQL Server数据库的JDBC格式连接串,例如:jdbc:sqlserver://{hostname}:{port};DatabaseName={dbname}。 {hostname}为数据库的连接地址。 {port}为数据库的连接端口号。
连接器 ROMA Connect支持常见的数据源类型,如关系型数据库、大数据存储、半结构化存储、消息系统等。
”错误 FDI任务失败,修改问题后任务写入仍然报错 表名存在乱码导致Camel访问数据库失败 插入数据违反非空约束 DWS变成只读状态导致FDI任务运行失败 向DWS写入数据时越来越慢怎么解决
以MySQL为例说明,假设数据API有数据源1和数据源2,user01是数据源1的数据表和user02是数据源2的数据表,两张表的结构如下: 表1 表结构 数据源 表名 参数 数据源1 user01 id(int) name(varchar) 数据源2 user02 user_id
创建数据集成任务(组合任务) 配置Oracle CDC(LogMiner) 配置Oracle CDC(XStream) 配置MySQL CDC(Binlog) 配置SQL Server CDC 创建组合任务 父主题: 数据集成指导
DB2:DB2数据源 GAUSS100:Gauss100数据源 OPENGAUSS:GaussDB数据源 MYSQL:MySQL数据源 ORACLE:Oracle数据源 POSTGRESQL:PostgreSQL数据源 SQLSERVER:SQL Server数据源 TAURUS:
登录方式 选择连接数据库模式。 租户:即以华为云账户密码的方式进行连接。 ak/sk:即获取“访问密钥”进行连接。AK/SK是用户在云服务平台的长期身份凭证,您可以参考访问密钥获取AK/SK。 租户名称 仅当“登录方式”选择“租户”时需要配置。即华为云租户账号。
若不同业务系统间直接访问对方的数据库,操作方式过于复杂,且容易发生数据库信息泄露风险。 企业在日常运营的过程中,会持续的生产和累积数据资产,大部分企业的数据资产仅在企业内部使用,资产复用率低。若直接把数据库提供给合作伙伴或第三方访问,又难以保证数据库的对外安全访问问题。
登录方式 选择连接数据库模式。 租户:即以华为云账户密码的方式进行连接。 ak/sk:即获取“访问密钥”进行连接。AK/SK是用户在云服务平台的长期身份凭证,您可以参考访问密钥获取AK/SK。 租户名称 仅当“登录方式”选择“租户”时需要配置。即华为云租户账号。
数据筛选 “数据筛选”组件对传入该组件的数据按照指定的表达式进行筛选,并将筛选出的结果通过节点变量传递给后续节点。通常“数据筛选”组件会作为“数据拆分”组件的后续步骤以配合使用。 配置参数 参数 说明 表达式 数据筛选的表达式。 使用表达式对数据进行筛选,并传递给后续节点。例如数据拆分出的多个数据块为
最小长度:0 最大长度:64 db_schema 否 String 数据库模式,GAUSS100数据库使用。 最小长度:0 最大长度:64 filter 否 String 表名模糊匹配过滤器。
修改ACL策略 功能介绍 修改指定的ACL策略,其中可修改的属性为:acl_name、acl_type、acl_value,其它属性不可修改。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能
目标端数据库名 选择待集成数据要写入的数据库。 需要使用自建的数据库,不能使用MRS Hive自带的default数据库。 目标端表 选择待集成数据要写入的数据表。 分隔符 填写MRS Hive数据源中文本数据的字段分隔符,用于区分每行数据中的不同字段。
数据转换 “数据转换”连接器用于数据流的格式转换,当前支持XML转JSON和JSON转XML。 配置参数 参数 说明 转换模式 选择数据转换的模式,可选择“XML转JSON”和“JSON转XML”。 内容 通过脚本编写需要转换的数据。 可通过变量的方式引用前序步骤中的数据,请参考引用变量
数据拆分 “数据拆分”组件将传入该节点的数据按照指定的表达式进行拆分,并将拆分的结果通过节点变量传递给后续节点。通常“数据拆分”组件后续会连接“数据筛选”组件以配合使用。 “数据拆分”为异步处理组件,如果一个任务中存在“数据拆分”节点,最终开放的API将返回传入“数据拆分”节点时的数据
解决方案 该问题是debezium当前版本的一个BUG,需要用户升级MySQL。 对于组合任务,可以尝试通过修改配置的方法规避,首先删除此表的配置,启动任务后会跳过这些数据,等任务执行成功后,再将表配置回来重新采集。 父主题: 数据集成组合任务