-
Hive迁移作业长时间卡顿怎么办? - 云数据迁移 CDM
Hive迁移作业长时间卡顿怎么办? 为避免Hive迁移作业长时间卡顿,可手动停止迁移作业后,通过编辑Hive连接增加如下属性设置: 属性名称:hive.server2.idle.operation.timeout 值:10m 如图所示: 父主题: 故障处理类
-
迁移数据到DLI时有数据丢失怎么处理? - 云数据迁移 CDM
迁移数据到DLI时有数据丢失怎么处理? 问题描述 目的端是DLI的迁移作业执行成功后,显示迁移的数据条数和DLI表中查询的数量对不上,存在数据丢失。 原因分析 查看客户的作业配置,客户并发数设置的是3,如图所示。 查看DLI官网文档不建议同时对一张表并发插入数据。 解决方案 将作业的抽取并发数改成1
-
写ES报timeout waiting for connection from pool错误怎么解决? - 云数据迁移 CDM
写ES报timeout waiting for connection from pool错误怎么解决? 问题描述 写ES报timeout waiting for connection from pool,且日志中输出多个es_rejected_execution_exception。
-
使用CDM迁移数据由于字段类型映射不匹配导致报错怎么处理? - 云数据迁移 CDM
使用CDM迁移数据由于字段类型映射不匹配导致报错怎么处理? 问题描述 在使用CDM迁移数据到数据仓库服务(DWS)时,迁移作业失败,且执行日志中出现“value too long for type character varying”错误提示。 原因分析 这种情况一般是源表与目标
-
读Hudi作业长时间出于BOOTING状态怎么解决? - 云数据迁移 CDM
读Hudi作业长时间出于BOOTING状态怎么解决? 问题原因1:除去Yarn队列资源问题,一般作业是卡在执行Spark SQL读Hudi写Hive临时表,这步执行的速度取决于Hudi表的数据量与Yarn队列剩余资源。 问题排查1:查看Yarn任务,搜索Spark JDBC Se
-
作业从旧集群导出,再导入到新的集群失败怎么解决? - 云数据迁移 CDM
作业从旧集群导出,再导入到新的集群失败怎么解决? 问题描述 旧CDM集群是2.6.0版本,新集群是2.8.6.1版本,导入作业报错如下图所示。 原因分析 初步怀疑是新老集群部分参数修改不兼容导致的,通过查看老集群导出的作业json文件,包含throttlingConfig.con
-
FTP测试连通性失败,报服务器内部错误怎么解决? - 云数据迁移 CDM
FTP测试连通性失败,报服务器内部错误怎么解决? 问题描述 ECS搭建FTP已经尝试root 、FTPadmin用户在本地都可以正常登录,安全组21、20端口正常放通,但是在创建FTP的数据连接报服务器内部错误。 解决方案 查询后台日志,报错为连接超时,截图如下,可能是安全组限制
-
执行Spark SQL写入Hudi失败怎么办? - 云数据迁移 CDM
执行Spark SQL写入Hudi失败怎么办? 报错:hoodie table path not found 原因分析 表在metastore中存在,但不是Huid表,或者表在metastore中存在,但是表目录不存在,根因是在表目录下没有.hoodie目录。可能删表的时候只删了文件而没有drop
-
CDM转换空字符串表达式StringUtils.defaultIfEmpty不生效怎么解决? - 云数据迁移 CDM
CDM转换空字符串表达式StringUtils.defaultIfEmpty不生效怎么解决? 问题描述 在cdm中使用StringUtils.defaultIfEmpty(value,"0000-00-00 00:00:00")表达式期望将空字符串转换为时间格式,但是没有生效。 解决方案
-
作业执行过程中,由于源端连接闪断、超时或者源端主动终止了连接导致作业执行失败怎么处理? - 云数据迁移 CDM
作业执行过程中,由于源端连接闪断、超时或者源端主动终止了连接导致作业执行失败怎么处理? 问题定位 日志中出现源端的read timeout报错,或者terminate by xxx之类的报错。 规避方案 如果源端网络不稳定,可以使用分片重试能力多次执行作业,可能需要调整作业配置。 如作
-
迁移Mysql到DWS报错“Lost connection to MySQL server during query”怎么处理? - 云数据迁移 CDM
迁移Mysql到DWS报错“Lost connection to MySQL server during query”怎么处理? 问题描述 Mysql-TO-DWS迁移过程中,报错“ GENERIC_JDBC_CONNECTOR_0904:ERROR occurs while retrieving
-
作业配置添加字段,MongoDB字段映射存在问题 - 云数据迁移 CDM
作业配置添加字段,MongoDB字段映射存在问题 问题描述 CDM作业配置源端MongoDB添加字段,目的端MongoDB数据库字段映射,作业运行后,目的端数据库查看,数据存在问题,没有迁移成功。 故障分析 查看文档提示CDM通过获取样值的方式无法获得所有列。 添加字段,因为Mo
-
读Hudi作业字段映射多了一列col,作业执行失败怎么处理? - 云数据迁移 CDM
读Hudi作业字段映射多了一列col,作业执行失败怎么处理? 问题原因:使用Spark SQL写数据入hudi表,由于配置问题,表schema中会自动增加一列类型为array<string>,名称为col的列。 解决方案:字段映射中删去此列,如果是自动建表,SQL中也要把此列删去。
-
作业执行卡Running,读取行数写入行数相等且不再增加怎么解决? - 云数据迁移 CDM
作业执行卡Running,读取行数写入行数相等且不再增加怎么解决? 原因分析 CDM写Hudi为两段式,先写到hive临时表,然后再执行spark sql写到Hudi,写入行数统计的是写hive临时表的行数,当行数不再增长时,说明源端数据已经读完写到Hive表中,此时作业正在执行Spark
-
Hudi表自动建表报错:schema不匹配,建表失败怎么办? - 云数据迁移 CDM
Hudi表自动建表报错:schema不匹配,建表失败怎么办? 问题描述 cdm迁移数据到hudi,hudi选择自动建表,执行建表语句报schema不匹配错误“org.apache.spark.sql.AnalysisException:Specified schema in create
-
如何将云下内网或第三方云上的私网与CDM连通? - 云数据迁移 CDM
于CDM运行在云上,如果要通过CDM迁移内网数据到云上的话,可以通过以下几种方式连通内网和CDM的网络: 如果目标数据源为云下的数据库,则需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP、CDM云上安全组出方向放通云下数据源所在的主机、数据源所在的主机可以访问公网且防火墙规则已开放连接端口。
-
故障处理类 - 云数据迁移 CDM
日志提示解析日期格式失败时怎么处理? 字段映射界面无法显示所有列怎么处理? CDM迁移数据到DWS时如何选取分布列? 迁移到DWS时出现value too long for type character varying怎么处理? OBS导入数据到SQL Server时出现Unable to
-
createBackendLinks]不存在”或创建作业时报错“配置项 [throttlingConfig.concurrentSubJobs] 不存在”怎么办? - 云数据迁移 CDM
[throttlingConfig.concurrentSubJobs] 不存在”怎么办? 当同时存在多个不同版本的集群,先在低版本CDM集群创建数据连接或保存作业时后,再进入高版本CDM集群时,会偶现此类故障。 需手动清理浏览器缓存,即可避免此类问题。 父主题: 故障处理类
-
启动作业后,Hudi作业长时间处于BOOTING状态,然后作业失败,日志报错Read Timeout怎么解决? - 云数据迁移 CDM
启动作业后,Hudi作业长时间处于BOOTING状态,然后作业失败,日志报错Read Timeout怎么解决? 问题现象: 作业日志报错Read time out,日志如下: 问题排查 确认MRS集群的JdbcServer是多实例模式还是多租模式。 如果是多实例模式,跳转3。 否则跳转2。
-
步骤1:创建集群 - 云数据迁移 CDM
当CDM集群与其他云服务所在的区域、VPC、子网、安全组一致时,可保证CDM集群与其他云服务内网互通,无需专门打通网络。 当CDM集群与其他云服务所在的区域和VPC一致、但子网或安全组不一致时,需配置路由规则及安全组规则以打通网络。配置路由规则请参见如何配置路由规则章节,配置安全组规则请参见如何配置安全组规则章节。