已找到以下 384 条记录
AI智能搜索
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 修改作业 - 云数据迁移 CDM

    ConfigValues object 目的连接参数配置。根据不同目的端有不同参数配置,具体可参考目的端作业参数说明下相应目的端参数配置。 to-link-name 是 String 目的端连接名称,即为通过“创建连接”接口创建连接对应连接名。 driver-config-values

  • MySQL数据迁移到OBS - 云数据迁移 CDM

    输入便于记忆和区分连接名称。 mysqllink 数据库服务器 MySQL数据库IP地址或域名。 - 端口 MySQL数据库端口。 3306 数据库名称 MySQL数据库名称。 sqoop 用户名 拥有MySQL数据库读、写和删除权限用户。 admin 密码 用户密码。 -

  • MySQL数据迁移到OBS - 云数据迁移 CDM

    输入便于记忆和区分连接名称。 mysqllink 数据库服务器 MySQL数据库IP地址或域名。 - 端口 MySQL数据库端口。 3306 数据库名称 MySQL数据库名称。 sqoop 用户名 拥有MySQL数据库读、写和删除权限用户。 admin 密码 用户密码。 -

  • Hive连接 - 云数据迁移 CDM

    Kerveros认证所需Principal,您也可以联系管理员获取此账号。使用集群配置前需在集群配置管理中配置此参数。 linkConfig.keytab 否 FileContent Kerveros认证所需keytab文件本地绝对路径,您也可以联系管理员获取此文件。使用集群配置前需在集群配置管理中配置此参数。

  • 整库迁移到Hive,报错Identifier name is too long如何处理? - 云数据迁移 CDM

    迁移任务报错表名太长,但表名实际没有这么长。 原因分析 在任务迁移时,导入数据前会先创建一个实际表名+阶段表后缀阶段表,最终导致作业异常。 解决方案 在作业配置高级属性将导入阶段表设置为否,这样就不会先导入阶段表。 缩短实际表表名长度。 父主题: 故障处理类

  • 是否支持增量迁移? - 云数据迁移 CDM

    是否支持增量迁移? 问题描述 CDM是否支持增量迁移? 解决方案 CDM支持增量数据迁移。 利用定时任务配置和时间宏变量函数等参数,可支持以下场景增量数据迁移: 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 详情请参见增量迁移。 父主题: 功能类

  • 管理单个CDM作业 - 云数据迁移 CDM

    停止作业:选择作业操作列“更多 > 停止”可停止作业。 查看作业JSON:选择作业操作列“更多 > 查看作业JSON”,可查看该作业JSON定义。 编辑作业JSON:选择作业操作列“更多 > 编辑作业JSON”,可直接编辑该作业JSON文件,作用等同于修改作业参数配置配置定时任务:选择作业操作列的“更多

  • MRS HDFS数据迁移到OBS - 云数据迁移 CDM

    用户名:选择KERBEROS鉴权时,需要配置MRS Manager用户名和密码。 从HDFS导出目录时,如果需要创建快照,这里配置用户需要HDFS系统管理员权限。 密码:访问MRS Manager用户密码。 认证类型:访问MRS认证类型。 运行模式:选择HDFS连接运行模式。 创建OBS连接

  • 迁移文件时加解密 - 云数据迁移 CDM

    初始化向量:这里初始化向量必须与加密时配置初始化向量一致,否则解密出来数据会错误,且系统不会提示异常。 这样CDM从HDFS导出加密过文件时,写入目的端文件便是解密后明文文件。 目的端配置加密 创建CDM导入文件到HDFS作业时,目的端数据源选择HDFS、文件格

  • 性能调优 - 云数据迁移 CDM

    图1 集群最大抽取并发数配置 作业抽取并发数配置原则如下: 迁移目的端为文件时,CDM不支持多并发,此时应配置为单进程抽取数据。 表中每行数据大小为1MB以下可以设置多并发抽取,超过1MB建议单线程抽取数据。 作业抽取并发数可参考集群最大抽取并发数配置,但不建议超过集群最大抽取并发数上限。

  • MRS HDFS数据迁移到OBS - 云数据迁移 CDM

    用户名:选择KERBEROS鉴权时,需要配置MRS Manager用户名和密码。 从HDFS导出目录时,如果需要创建快照,这里配置用户需要HDFS系统管理员权限。 密码:访问MRS Manager用户密码。 认证类型:访问MRS认证类型。 运行模式:选择HDFS连接运行模式。 创建OBS连接

  • 通过数据开发使用参数传递灵活调度CDM作业 - 云数据迁移 CDM

    关联CDM作业 在作业参数中配置业务需要参数,如图5所示。 图5 配置作业参数 作业调度执行过程中,会将该参数值传递给CDM作业,传递参数“cur_date”可以配置为本示例“2021-11-10 00:00:00”固定参数值,也可以配置为EL表达式,例如:计划运行日期前一天:#{DateUtil

  • 步骤2:创建连接 - 云数据迁移 CDM

    MySQL数据库IP地址或域名。 - 端口 MySQL数据库端口。 3306 数据库名称 MySQL数据库名称。 sqoop 用户名 拥有MySQL数据库读、写和删除权限用户。 admin 密码 用户密码。 - 使用本地API 使用数据库本地API加速(系统会尝试启用MySQL数

  • 新建MRS Hive连接时,提示:CORE_0031:Connect time out. (Cdm.0523) 怎么解决? - 云数据迁移 CDM

    Hive连接时,提示无法下载配置文件,实际是用户权限不足。建议您新建一个业务用户,给对应权限后重试即可。 如果要创建MRS安全集群数据连接,不能使用admin用户。因为admin用户是默认管理页面用户,这个用户无法作为安全集群认证用户来使用。您可以创建一个新MRS用户,然后在创

  • 通过CDM节点批量创建分表迁移作业 - 云数据迁移 CDM

    单击输入框后“选择”,可获取用户MySQL数据库实例列表。 192.168.0.1 端口 配置为要连接数据库端口。 3306 数据库名称 配置为要连接数据库名称。 dbname 用户名 待连接数据库用户。该数据库用户需要有数据表读写权限,以及对元数据读取权限。 cdm

  • MySQL数据迁移到MRS Hive分区表 - 云数据迁移 CDM

    是否需要测试Hive JDBC连通。 否 是否使用集群配置 您可以通过使用集群配置,简化Hadoop连接参数配置。 否 集群配置名 仅当“是否使用集群配置”为“是”时,此参数有效。此参数用于选择用户已经创建好集群配置。 集群配置创建方法请参见管理集群配置。 hive_01 单击“保存”回到连接管理界面。

  • MySQL数据迁移到DWS - 云数据迁移 CDM

    新建作业”,开始创建从MySQL导出数据到DWS任务。 图4 创建MySQL到DWS迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建MySQL连接中“mysqllink”。 使用SQL语句:否。 模式或表空间:待抽取数据模式或表空间名称。 表名:要抽取表名。 其他可选参数一般情况下保持默认即可。

  • MySQL数据迁移到DWS - 云数据迁移 CDM

    新建作业”,开始创建从MySQL导出数据到DWS任务。 图4 创建MySQL到DWS迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建MySQL连接中“mysqllink”。 使用SQL语句:否。 模式或表空间:待抽取数据模式或表空间名称。 表名:要抽取表名。 其他可选参数一般情况下保持默认即可。

  • 迁移文件时加解密 - 云数据迁移 CDM

    初始化向量:这里初始化向量必须与加密时配置初始化向量一致,否则解密出来数据会错误,且系统不会提示异常。 这样CDM从HDFS导出加密过文件时,写入目的端文件便是解密后明文文件。 目的端配置加密 创建CDM导入文件到HDFS作业时,目的端数据源选择HDFS、文件格

  • 创建MySQL连接器 - 云数据迁移 CDM

    指定每次批量提交行数,根据数据目的端和作业数据规模大小配置该参数。如果配置过大或过小,可能影响作业时长。 1000 连接属性 自定义连接属性。 useCompression=true 引用符号 连接引用表名或列名时分隔符号。默认为空。 ' 单次写入行数 指定单次批量写入行数,当