已找到以下 371 条记录
AI智能搜索
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • MRS中恢复HBase表 - 云数据迁移 CDM

    会变化数据,需要使用快照保证数据不变,然后再迁移并恢复。 约束限制 本方案仅支持迁移数据到MRS 1.x版本集群,2.x及之后版本无法通过HBase修复命令重建HBase表。 迁移目标集群为2.x及之后版本时,HBase修复命令已经不再支持,通过HBase数据目录迁移方式无法使用。

  • 性能调优 - 云数据迁移 CDM

    数据迁移作业提交运行后,CDM会根据作业配置中“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据源作业分片维度有所不同,因此某些作业可能出现未严格按作业“抽取并发数”参数分片情况。 CDM依次将Task提交给运行池运行。根据集群配置管理中“最大抽取并发数”参数,超出规格Task排队等待运行。

  • 迁移准备 - 云数据迁移 CDM

    迁移准备 前提条件 CDH HBase版本号小于或等于MRS HBase版本号。 待迁移表在迁移过程中不能有写入,Split,Merge等操作。 使用华为云专线搭建CDH集群与华为云VPC之间专属连接通道。 迁移流程 预估迁移数据量、迁移时间。 输出详细待迁移数据表、文件个数、大小,用于后续校验。

  • 指定文件名迁移 - 云数据迁移 CDM

    从FTP/SFTP/OBS导出文件时,CDM支持指定文件名迁移,用户可以单次迁移多个指定文件(最多50个),导出多个文件只能写到目的端同一个目录。 在创建表/文件迁移作业时,如果源端数据源为FTP/SFTP/OBS,CDM源端作业参数“源目录或文件”支持输入多个文件名(最多50个),文件名之间

  • 指定文件名迁移 - 云数据迁移 CDM

    从FTP/SFTP/OBS导出文件时,CDM支持指定文件名迁移,用户可以单次迁移多个指定文件(最多50个),导出多个文件只能写到目的端同一个目录。 在创建表/文件迁移作业时,如果源端数据源为FTP/SFTP/OBS,CDM源端作业参数“源目录或文件”支持输入多个文件名(最多50个),文件名之间

  • 是否支持批量创建作业? - 云数据迁移 CDM

    是否支持批量创建作业? 问题描述 CDM是否支持批量创建作业? 解决方案 CDM可以通过批量导入功能,实现批量创建作业,方法如下: 手动创建一个作业。 导出作业,将作业JSON文件保存到本地。 编辑JSON文件,参考该作业配置,在JSON文件中批量复制出更多作业。 将JSON文件导入CDM集群,实现批量创建作业。

  • 下载CDM集群日志 - 云数据迁移 CDM

    下载CDM集群日志 操作场景 本章节指导用户获取集群日志。集群日志可用于查看作业运行记录,定位作业失败原因等。 前提条件 已创建CDM集群。 操作步骤 登录CDM管理控制台。单击左侧导航上“集群管理”,进入集群管理界面。 或参考访问DataArts Studio实例控制台,登录DataArts

  • 分库连接参数说明 - 云数据迁移 CDM

    可选参数,单击“显示高级属性”后显示。 指定每次请求获取行数,根据数据源和作业数据规模大小配置该参数。如果配置过大或过小,可能影响作业时长。 1000 连接属性 可选参数,单击“添加”可增加多个指定数据源JDBC连接器属性,参考对应数据库JDBC连接器说明文档进行配置。 sslmode=require

  • 整库迁移到Hive,报错Identifier name is too long如何处理? - 云数据迁移 CDM

    迁移任务报错表名太长,但表名实际没有这么长。 原因分析 在任务迁移时,导入数据前会先创建一个实际表名+阶段表后缀阶段表,最终导致作业异常。 解决方案 在作业配置高级属性将导入阶段表设置为否,这样就不会先导入阶段表。 缩短实际表表名长度。 父主题: 故障处理类

  • API概览 - 云数据迁移 CDM

    20次/min 查询支持版本 查询并显示支持集群版本。 20次/min 查询版本规格 查询并显示集群版本规格。 20次/min 查询规格详情 查询并显示集群规格详情。 20次/min 查询所有集群企业项目ID 查询并显示所有集群企业项目ID。 20次/min 查询集群企业项目ID 查询并显示集群的企业项目ID。

  • 新增字段操作指导 - 云数据迁移 CDM

    当作业源端为OBS、迁移CSV文件时,并且配置“解析首行为列名”参数场景下显示列名。 当使用二进制格式进行文件到文件迁移时,没有字段映射这一步。 自动创表场景下,需在目的端表中提前手动新增字段,再在字段映射里新增字段。 添加完字段后,新增字段在界面不显示样值,不会影响字段值传输,CDM会将字段值直接写入目的端。

  • 迁移文件时加解密 - 云数据迁移 CDM

    异常。 初始化向量:这里初始化向量必须与加密时配置初始化向量一致,否则解密出来数据会错误,且系统不会提示异常。 这样CDM从HDFS导出加密过文件时,写入目的端文件便是解密后明文文件。 目的端配置加密 创建CDM导入文件到HDFS作业时,目的端数据源选择HDFS、文

  • 查看并修改CDM集群配置 - 云数据迁移 CDM

    常时,会发送短信或邮件通知用户。该功能产生消息通知不会计入收费项。 用户隔离:控制其他用户是否能够查看、操作该集群中迁移作业和连接。 开启该功能时,该集群中迁移作业、连接会被隔离,华为账号下其他IAM用户无法查看、操作该集群中迁移作业和连接。 按组批量启动作业会运行组内

  • 迁移文件时加解密 - 云数据迁移 CDM

    异常。 初始化向量:这里初始化向量必须与加密时配置初始化向量一致,否则解密出来数据会错误,且系统不会提示异常。 这样CDM从HDFS导出加密过文件时,写入目的端文件便是解密后明文文件。 目的端配置加密 创建CDM导入文件到HDFS作业时,目的端数据源选择HDFS、文

  • 正则表达式分隔半结构化文本 - 云数据迁移 CDM

    ”必须选择“CSV格式”。 图1 正则表达式参数 在迁移CSV格式文件时,CDM支持使用正则表达式分隔字段,并按照解析后结果写入目的端。正则表达式语法参考对应相关资料,这里举例下面几种日志文件正则表达式写法: Log4J日志 Log4J审计日志 Tomcat日志 Django日志

  • 日志提示解析日期格式失败时怎么处理? - 云数据迁移 CDM

    转换器,将日期字段格式转换为云搜索服务目的端格式。 解决方案 编辑作业,进入作业字段映射步骤,在源端时间格式字段后面,选择新建转换器,如图3所示。 图3 新建转换器 转换器类型选择“表达式转换”,目前表达式转换支持字符串和日期类型函数,语法和Java字符串和时间格式函

  • 是否支持字段转换? - 云数据迁移 CDM

    isNumeric(value) 获取字符串最左端指定长度字符,例如获取“abc”最左端2位字符“ab”。 表达式:StringUtils.left(value,2) 获取字符串最右端指定长度字符,例如获取“abc”最右端2位字符“bc”。 表达式:StringUtils

  • 场景介绍 - 云数据迁移 CDM

    本章节介绍云数据迁移(Cloud Data Migration,以下简称CDM)基础使用方法,通过CDM迁移RDS for MySQL数据到数据仓库服务DWS具体操作,帮助您了解、熟悉CDM服务,具体场景如图1所示。 图1 MySQL迁移到DWS CDM基本使用流程如下: 创建CDM集群 创建连接 创建并执行作业

  • 源端为HDFS - 云数据迁移 CDM

    数据解密密钥,密钥由长度64十六进制数组成,且必须与加密时配置“toJobConfig.dek”(导入时配置数据加密密钥)一致。如果不一致系统不会报异常,只是解密出来数据会错误。 fromJobConfig.iv 否 String 解密需要初始化向量,初始化向量由长度32十六进制数组

  • 操作流程概述 - 云数据迁移 CDM

    使用CDM+OBS+DLI进行贸易统计分析操作过程主要包括2个步骤: 使用CDM上传数据到OBS 通过CDM将H公司存量数据上传到对象存储服务OBS。 通过CDM作业定时任务,每天自动上传增量数据到OBS。 使用DLI分析数据 通过DLI直接分析OBS中业务数据,支撑H公司客户进行贸易统计分析。