-
写ES报timeout waiting for connection from pool错误怎么解决? - 云数据迁移 CDM
写ES报timeout waiting for connection from pool错误怎么解决? 问题描述 写ES报timeout waiting for connection from pool,且日志中输出多个es_rejected_execution_exception。
-
Mysql导入数据到DLI,快执行完时失败了提示Invoke DLI service api failed错误怎么解决? - 云数据迁移 CDM
Mysql导入数据到DLI,快执行完时失败了提示Invoke DLI service api failed错误怎么解决? 问题描述 导入了4000W数据,快执行完时报如下错误。 故障分析 结合报错,考虑是DLI目的端写入问题。但因日志截图不全,进入CDM集群,查看客户作业日志。
-
通过CDM节点批量创建分表迁移作业 - 云数据迁移 CDM
配置CDM作业消息体 编辑“CDM作业消息体”。 由于源表有三个,分别为mail001、mail002、mail003,因此需要将作业JSON中的“fromJobConfig.tableName”属性值配置为“mail${num}”,即源表名是通过参数配置。如下图所示: 图7 编辑JSON
-
执行作业后(非失败重试),作业执行卡Running,但是数据写入行数一直显示为0如何处理? - 云数据迁移 CDM
为0如何处理? 问题排查 打开日志,最后一行日志如下所示,则说明此时集群并发资源消耗殆尽,或者集群内存使用达到阈值,新提交的作业需要排队等待。 submit task attempt_local1847334969_1748_m_000003_0, current waiting
-
管理单个作业 - 云数据迁移 CDM
启动、停止等操作,这里主要介绍作业的查看和修改。 查看 查看作业状态 作业状态有New,Pending,Booting,Running,Failed,Succeeded,stopped。 其中“Pending”表示正在等待系统调度该作业,“Booting”表示正在分析待迁移的数据。
-
CDM作业管理访问不了,提示网络或服务器访问异常怎么处理? - 云数据迁移 CDM
CDM作业管理访问不了,提示网络或服务器访问异常怎么处理? 问题描述 作业管理页面访问不了,提示“网络或服务器异常,请重试”的报错。 解决方案 F12看下接口返回都正常。 查看CDM集群各项指标是否正常:如磁盘、内存、CPU。 如果CDM集群以上指标都正常,用户侧清理浏览器缓存之后重新单击作业管理即可。
-
读Hudi作业长时间出于BOOTING状态怎么解决? - 云数据迁移 CDM
队列剩余资源。 问题排查1:查看Yarn任务,搜索Spark JDBC Server的Yarn任务,找到自己队列下Running Container大于1的任务,查看ApplicationMaster,单击SQL页签,可以看到正在执行的SQL,单击Stages页签,可以看到每条SQL的执行进度。
-
步骤4:查看作业运行结果 - 云数据迁移 CDM
的执行状态。作业状态为Succeeded即迁移成功。 图1 作业状态 作业状态有New,Pending,Booting,Running,Failed,Succeeded,stopped。 其中“Pending”表示正在等待系统调度该作业,“Booting”表示正在分析待迁移的数据。
-
是否支持字段转换? - 云数据迁移 CDM
表达式:StringUtils.contains(value,"a") 如果字符串中包含指定字符串的任一字符,则返回布尔值true,否则返回false。例如“zzabyycdxx”中包含“z”或“a”任意一个,则返回true。 表达式:StringUtils.containsAny(value,"za")
-
定时任务失败,检查连接器连接存在问题 - 云数据迁移 CDM
定时任务失败,检查连接器连接存在问题 问题描述 CDM任务检查网络连通性,源端数据库连接问题,测试连通性提示如下问题: “请检查IP、主机名、端口填写是否正确,检查网络安全组和防火墙配置是否正确,参考数据库返回消息进行定位。” 故障分析 查询集群信息,获取公网IP,从CDM集群curl源端数据库的地址,如下所示。
-
FTP测试连通性失败,报服务器内部错误怎么解决? - 云数据迁移 CDM
成功。 针对FTP服务器的防火墙来说,必须允许以下通讯才能支持主动方式FTP: 1. 任何大于1024的端口到FTP服务器的21端口(客户端初始化的连接)。 2. FTP服务器的21端口到大于1024的端口(服务器响应客户端的控制端口)。 3. FTP服务器的20端口到大于102
-
查询集群详情 - 云数据迁移 CDM
publicEndpointDomainName String 集群绑定的EIP域名 bakExpectedStartTime String 开始时间 bakKeepDay Integer 保留时间 maintainWindow maintainWindow object 维护窗口
-
状态码 - 云数据迁移 CDM
Precondition Failed 未满足前提条件,服务器未满足请求者在请求中设置的其中一个前提条件。 413 Request Entity Too Large 由于请求的实体过大,服务器无法处理,因此拒绝请求。为防止客户端的连续请求,服务器可能会关闭连接。如果只是服务器暂时无法处理,则会包含一个Retry-After的响应信息。
-
配置HBase/CloudTable目的端参数 - 云数据迁移 CDM
选择是否开启HBase的预写日志机制(WAL,Write Ahead Log)。 是:开启后如果出现HBase服务器宕机,则可以从WAL中回放执行之前没有完成的操作。 否:关闭时能提升写入性能,但如果HBase服务器宕机可能会造成数据丢失。 否 匹配数据类型 是:源端数据库中的Short、Int、Long
-
查询集群列表 - 云数据迁移 CDM
集群快照进度,例如:29% REPAIRING String 修复集群进度,例如:29% 表14 FailedReasons 参数 参数类型 描述 CREATE_FAILED CREATE_FAILED object 集群创建失败原因。 表15 CREATE_FAILED 参数 参数类型 描述
-
配置MongoDB连接 - 云数据迁移 CDM
直连模式服务器列表只能配一个ip。 直连适用于主节点网络通,副本节点网络不通场景。 否 连接属性 自定义连接属性,支持MongoDB属性,单位为ms。连接属性如下: socketTimeout,默认socketTimeout=60000 maxWaitTime,默认maxWaitTime=10000
-
迁移HDFS文件,报错无法获取块怎么处理? - 云数据迁移 CDM
BlockMissingException: Could not obtain block: BP-787476470-192.168.152.10-1573351961380:blk_1073742171_1347 file=/user/hive/warehouse/db_hive
-
CDM迁移DWS数据报错Read timedout怎么处理? - 云数据迁移 CDM
CDM迁移DWS数据报错Read timedout怎么处理? 问题描述 客户使用cdm迁移DWS A集群表数据到DWS B集群,成功写入部分后报错: org.postgresql.util.PSQLException: Database connection failed when ending copy……
-
故障处理类 - 云数据迁移 CDM
定时任务失败,检查连接器连接存在问题 脏数据导致CSV数据类型问题插入MySQL报错 写ES报timeout waiting for connection from pool错误怎么解决? Oracle迁移到DWS报错ORA-01555 FTP测试连通性失败,报服务器内部错误怎么解决?
-
构造请求 - 云数据迁移 CDM
"password": "********", "domain": { "name": "domainname" } }