-
创建集群 - 云数据迁移 CDM
说明: 一个集群最多可添加10个标签。 标签键(key)的最大长度为36个字符,标签值(value)的最大长度为43个字符。 消息通知 否 开启后,支持配置20个手机号码或邮箱,作业(目前仅支持表/文件迁移的作业)失败时、EIP异常时会发送短信或邮件通知用户。 查看当前配置,
-
MySQL整库迁移到RDS服务 - 云数据迁移 CDM
单击“下一步”,进入选择待迁移表的界面,您可以选择全部或者部分表进行迁移。 单击“保存并运行”,CDM会立即开始执行整库迁移任务。 作业任务启动后,每个待迁移的表都会生成一个子任务,单击整库迁移的作业名称,可查看子任务列表。 单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。
-
MySQL整库迁移到RDS服务 - 云数据迁移 CDM
单击“下一步”,进入选择待迁移表的界面,您可以选择全部或者部分表进行迁移。 单击“保存并运行”,CDM会立即开始执行整库迁移任务。 作业任务启动后,每个待迁移的表都会生成一个子任务,单击整库迁移的作业名称,可查看子任务列表。 单击作业操作列的“历史记录”,可查看该作业的历史执行记录、读取和写入的统计数据。
-
写ES报timeout waiting for connection from pool错误怎么解决? - 云数据迁移 CDM
生了热点。 解决方案 用户在迁移时有选择主键,也就是用它来替代 _id。计算出来的shard属同一个。 1. 建议用户不选主键,让es自动生成_id, 这样获的hash值比较分散。 2. 如果用户的应用必须用自有主键替代_id,则只能建议用性能更好的ES集群。 父主题: 故障处理类
-
脏数据导致CSV数据类型问题插入MySQL报错 - 云数据迁移 CDM
脏数据导致CSV数据类型问题插入MySQL报错 问题描述 客户作业失败,提示invalid utf-8 charater string '' 故障分析 根据报错,考虑用户数据中存在脏数据,个别字段类型不匹配导致。 解决方案 后台排查客户sqoop日志,考虑客户源端数据类型格式问题导致异常 (或
-
数据迁移前后数据量不一致是什么问题? - 云数据迁移 CDM
数据迁移前后数据量不一致是什么问题? 问题描述 使用CDM进行数据迁移,迁移完成后,目标库数据要比原始库多,有的多十几条,有的多几千条。 故障分析 根据故障信息分析,考虑是作业配置限制,检查作业配置,发现目的端配置为导入开始前“不清除”,不清除可能存在多次操作,部分数据重复。 解决方案 目
-
作业执行卡Running,读取行数写入行数相等且不再增加怎么解决? - 云数据迁移 CDM
增加怎么解决? 原因分析 CDM写Hudi为两段式,先写到hive临时表,然后再执行spark sql写到Hudi,写入行数统计的是写hive临时表的行数,当行数不再增长时,说明源端数据已经读完写到Hive表中,此时作业正在执行Spark SQL过程中,需要等Spark SQL执行完作业才会结束。
-
DLI外表(OBS文件)迁移DWS某字段转义,带有“\” - 云数据迁移 CDM
DLI外表(OBS文件)迁移DWS某字段转义,带有“\” 问题描述 DLI 外表CDM服务将数据迁移到DWS(GaussDB)时候,有个字段迁移后多了一对引号,字段本身的引号多了转义符,其他字段没问题。 源端: 目的端: 故障分析 根据截图可以看出,源端样值中有符号:{ 括号 ”
-
MongoDB/DDS增量迁移 - 云数据迁移 CDM
H:mm:ss.SSS'Z',-1,DAY)}")}},表示查找ts字段中大于时间宏转换后的值,即只导出昨天以后的数据。 参数配置后,CDM就只导出前一天内的数据,再将该作业配置为每天0点执行一次,就可以增量同步每天新生成的数据。 父主题: 增量迁移原理介绍
-
性能调优 - 云数据迁移 CDM
数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据源的作业分片维度有所不同,因此某些作业可能出现未严格按作业“抽取并发数”参数分片的情况。 CDM依次将Task提交给运行池运行。根据集群配置管理中的“最大抽取并
-
终端节点 - 云数据迁移 CDM
址,不同服务不同区域的终端节点不同,您可以从地区和终端节点中查询所有服务的终端节点。 云数据迁移服务的终端节点如表1所示,请您根据业务需要选择对应区域的终端节点。 表1 CDM数据集成Endpoint 区域名称 区域ID 终端节点(Endpoint) 协议类型 华北-北京一 cn-north-1
-
配置DMS Kafka连接 - 云数据迁移 CDM
连接DMS的Kafka队列时,相关参数如表1所示。 作业运行中禁止修改密码或者更换用户。在作业运行过程中修改密码或者更换用户,密码不会立即生效且作业会运行失败。 表1 DMS Kafka连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。
-
HBase/CloudTable增量迁移 - 云数据迁移 CDM
动时间-偏移量”。 在创建CDM表/文件迁移的作业,源连接选择为HBase连接或CloudTable连接时,高级属性的可选参数中可以配置时间区间。 图1 HBase时间区间 起始时间(包含该值),格式为“yyyy-MM-dd HH:mm:ss”,表示只抽取该时间及以后的数据。 终
-
HBase/CloudTable增量迁移 - 云数据迁移 CDM
动时间-偏移量”。 在创建CDM表/文件迁移的作业,源连接选择为HBase连接或CloudTable连接时,高级属性的可选参数中可以配置时间区间。 图1 HBase时间区间 起始时间(包含该值),格式为“yyyy-MM-dd HH:mm:ss”,表示只抽取该时间及以后的数据。 终
-
配置SAP HANA连接 - 云数据迁移 CDM
HANA连接 连接SAP HANA时,相关参数如表1所示。 作业运行中禁止修改密码或者更换用户。在作业运行过程中修改密码或者更换用户,密码不会立即生效且作业会运行失败。 表1 SAP HANA连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。
-
配置分库连接 - 云数据迁移 CDM
数据源的数据合一迁移到其他数据源上。连接参数如表1所示。 作业运行中禁止修改密码或者更换用户。在作业运行过程中修改密码或者更换用户,密码不会立即生效且作业会运行失败。 表1 分库连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。
-
配置数据仓库服务(DWS)连接 - 云数据迁移 CDM
连接数据仓库服务(DWS)时,相关参数如表1所示。 作业运行中禁止修改密码或者更换用户。在作业运行过程中修改密码或者更换用户,密码不会立即生效且作业会运行失败。 表1 数据仓库服务(DWS)连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。
-
新建连接 - 云数据迁移 CDM
选择连接器类型 选择数据源类型后,单击“下一步”配置连接参数,这里以创建MySQL连接为例。 每种数据源的连接参数不同,您可以根据所选择的连接器类型在表1中查找对应参数。 表1 连接参数分类 连接器类型 参数说明 云数据库 PostgreSQL 云数据库 SQL Server PostgreSQL
-
配置Oracle数据库连接 - 云数据迁移 CDM
配置Oracle数据库连接 连接Oracle数据库时,连接参数如表1所示。 作业运行中禁止修改密码或者更换用户。在作业运行过程中修改密码或者更换用户,密码不会立即生效且作业会运行失败。 表1 Oracle数据库连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。
-
迁移Mysql到DWS报错“Lost connection to MySQL server during query”怎么处理? - 云数据迁移 CDM
l客户端执行,看是否报错以及报错情况: 发现执行查询语句,全表查询,报错“Lost connection to MySQL server during query”,再次尝试执行count语句,查询数据,发现成功。 根据分析,考虑是Mysql配置“max_allowed_pack