-
创建FusionInsight HDFS连接报错get filesystem怎么解决? - 云数据迁移 CDM
HDFS数据连接时,测试连通性提示获取文件系统失败的问题。 解决方案 客户使用的管理ip有误,正确的ip使用的是集群的一个浮动ip,端口使用HDFS的webui的端口即可解决。 父主题: 故障处理类
-
如何查看套餐包的剩余时长? - 云数据迁移 CDM
如何查看套餐包的剩余时长? 您可以进入华为云官网,在用户名下拉列表中选择“费用中心”,然后进入“订单管理-续费管理”查看对应套餐包的剩余时长。 父主题: 通用类
-
Oracle数据迁移到DWS - 云数据迁移 CDM
输入便于记忆和区分的连接名称。 oracle_link 数据库服务器 数据库服务器域名或IP地址。 192.168.0.1 端口 Oracle数据库的端口。 3306 数据库连接类型 Oracle数据库连接类型。 Service Name 数据库名称 要连接的数据库。 db_user
-
Oracle数据迁移到DWS - 云数据迁移 CDM
输入便于记忆和区分的连接名称。 oracle_link 数据库服务器 数据库服务器域名或IP地址。 192.168.0.1 端口 Oracle数据库的端口。 3306 数据库连接类型 Oracle数据库连接类型。 Service Name 数据库名称 要连接的数据库。 db_user
-
Oracle数据迁移到云搜索服务 - 云数据迁移 CDM
件检索、统计、报表,本章节介绍如何通过CDM将数据从Oracle迁移到云搜索服务中,流程如下: 创建CDM集群并绑定EIP 创建云搜索服务连接 创建Oracle连接 创建迁移作业 前提条件 已经开通了云搜索服务,且获取云搜索服务集群的IP地址和端口。 已获取Oracle数据库的IP、数据库名、用户名和密码。
-
MRS HDFS数据迁移到OBS - 云数据迁移 CDM
CDM支持文件到文件类数据的迁移,本章节以MRS HDFS-->OBS为例,介绍如何通过CDM将文件类数据迁移到文件中。流程如下: 创建CDM集群并绑定EIP 创建MRS HDFS连接 创建OBS连接 创建迁移作业 前提条件 已获取OBS的访问域名、端口,以及AK、SK。 已经购买了MRS。 拥有EIP配额。
-
Oracle数据迁移到云搜索服务 - 云数据迁移 CDM
件检索、统计、报表,本章节介绍如何通过CDM将数据从Oracle迁移到云搜索服务中,流程如下: 创建CDM集群并绑定EIP 创建云搜索服务连接 创建Oracle连接 创建迁移作业 前提条件 已经开通了云搜索服务,且获取云搜索服务集群的IP地址和端口。 已获取Oracle数据库的IP、数据库名、用户名和密码。
-
MRS HDFS数据迁移到OBS - 云数据迁移 CDM
CDM支持文件到文件类数据的迁移,本章节以MRS HDFS-->OBS为例,介绍如何通过CDM将文件类数据迁移到文件中。流程如下: 创建CDM集群并绑定EIP 创建MRS HDFS连接 创建OBS连接 创建迁移作业 前提条件 已获取OBS的访问域名、端口,以及AK、SK。 已经购买了MRS。 拥有EIP配额。
-
CDM与其他数据迁移服务有什么区别,如何选择? - 云数据迁移 CDM
CDM与其他数据迁移服务有什么区别,如何选择? 华为云上涉及数据迁移的服务有以下几种: 云数据迁移服务 CDM 对象存储迁移服务 OMS 数据复制服务 DRS 主机迁移服务 SMS 数据库和应用迁移 UGO 数据快递服务 DES 上述数据迁移服务的区别请参见各个数据迁移服务区别。
-
CDM迁移数据到DWS时如何选取分布列? - 云数据迁移 CDM
CDM迁移数据到DWS时如何选取分布列? 在使用CDM迁移数据到数据仓库服务(DWS)或者FusionInsight LibrA,且CDM在DWS端自动创建一个新表时,在创建作业的字段映射界面,需要选择分布列,如图1所示。 图1 选取分布列 由于分布列的选取,对于DWS/FusionInsight
-
整库迁移到Hive,报错Identifier name is too long如何处理? - 云数据迁移 CDM
整库迁移到Hive,报错Identifier name is too long如何处理? 问题描述 迁移任务报错表名太长,但表名实际没有这么长。 原因分析 在任务迁移时,导入数据前会先创建一个实际表名+阶段表后缀的阶段表,最终导致的作业异常。 解决方案 在作业配置高级属性将导入阶段表设置为否,这样就不会先导入阶段表。
-
创建MySQL连接器 - 云数据迁移 CDM
MySQL连接适用于第三方云MySQL服务,以及用户在本地数据中心或ECS上自建的MySQL。本教程为您介绍如何创建MySQL连接器。 前提条件 已获取连接MySQL数据库的IP地址、端口、数据库名称、用户名、密码,且该用户拥有MySQL数据库的读写权限。 本地MySQL数据库可通过公网
-
创建MySQL连接器 - 云数据迁移 CDM
MySQL连接适用于第三方云MySQL服务,以及用户在本地数据中心或ECS上自建的MySQL。本教程为您介绍如何创建MySQL连接器。 前提条件 已获取连接MySQL数据库的IP地址、端口、数据库名称、用户名、密码,且该用户拥有MySQL数据库的读写权限。 本地MySQL数据库可通过公网
-
如果HANA集群只有部分节点和CDM集群网络互通,应该如何配置连接? - 云数据迁移 CDM
如果HANA集群只有部分节点和CDM集群网络互通,应该如何配置连接? 如果HANA集群只有部分节点和CDM网络互通,为确保CDM正常连接HANA集群,则需要进行如下配置: 关闭HANA集群的Statement Routing开关。但须注意,关闭Statement Routing,会增加配置节点的压力。
-
如何处理CDM从OBS迁移数据到DLI出现迁移中断失败的问题? - 云数据迁移 CDM
如何处理CDM从OBS迁移数据到DLI出现迁移中断失败的问题? 此类作业问题表现为配置了脏数据写入,但并无脏数据。这种情况下需要调低并发任务数,即可避免此类问题。 父主题: 故障处理类
-
创建了Hive到DWS类型的连接,进行CDM传输任务失败时如何处理? - 云数据迁移 CDM
创建了Hive到DWS类型的连接,进行CDM传输任务失败时如何处理? 建议清空历史数据后再次尝试该任务。在使用CDM迁移作业的时候需要配置清空历史数据,然后再做迁移,可大大降低任务失败的概率。 父主题: 故障处理类
-
如何使用CDM服务将MySQL的数据导出成SQL文件,然后上传到OBS桶? - 云数据迁移 CDM
如何使用CDM服务将MySQL的数据导出成SQL文件,然后上传到OBS桶? CDM服务暂不支持该操作,建议通过手动导出MySQL的数据文件,然后在服务器上开启SFTP服务,然后新建CDM作业,源端是SFTP协议,目的端是OBS,将文件传过去。 父主题: 故障处理类
-
MRS Hive,MRS Kafka,MRS Hudi数据源创建连接时IP长度校验不通过,如何处理? - 云数据迁移 CDM
MRS Hive,MRS Kafka,MRS Hudi数据源创建连接时IP长度校验不通过,如何处理? MRS Hive,MRS Kafka,MRS Hudi数据源在创建连接时,单击“选择”选定MRS集群,Manager IP获取到IP如果长度校验不通过,如下图所示。 解决方法 单
-
是否支持批量创建作业? - 云数据迁移 CDM
是否支持批量创建作业? CDM可以通过批量导入的功能,实现批量创建作业,方法如下: 手动创建一个作业。 导出作业,将作业的JSON文件保存到本地。 编辑JSON文件,参考该作业的配置,在JSON文件中批量复制出更多作业。 将JSON文件导入CDM集群,实现批量创建作业。 您也可以参考通过CDM算子批量创建分表迁移作业,配合For
-
创建Oracle数据连接测试连通性成功,连接管理界面中测试连接失败。是什么原因? - 云数据迁移 CDM
“无法连接服务器,请检查IP、主机名、端口填写是否正确,检查网络安全组和防火墙配置是否正确,参考数据库返回消息 ORA-01005 null password given. logon denied(Cdm 0941)” 解决方案 请检查IP、主机名、端口填写是否正确,检查网络安全组和防