已找到以下 297 条记录
AI智能搜索
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 计费说明 - 云数据迁移 CDM

    服务使用计划,再购买折扣套餐。 如果您希望享受折扣套餐的优惠价格,需要先购买一个“折扣套餐”,再购买一个和“折扣套餐”具有相同区域和规格的“按需计费”集群。 如果您先购买一个“按需计费”集群,再购买一个相同区域和规格的“折扣套餐”,则在购买折扣套餐之前已经产生的费用按“按需计费”

  • 车联网大数搬迁入湖简介场景介绍 - 云数据迁移 CDM

    数据。最近一个月新增的数据量是60TB。 使用CDM将CDH集群的HBase HFile抽取出来存入到MRS(MapReduce) HDFS,再通过HBase修复命令重建HBase表。基于这种迁移方案,可以使用以下2种迁移方式同时进行: CDM通过专线直接迁移近一个月的数据以及备HBase集群的数据:

  • HBase连接 - 云数据迁移 CDM

    需要对接多个Hadoop数据源(MRS、Hadoop或CloudTable),并且既有KERBEROS认证模式又有SIMPLE认证模式,只能使用STANDALONE模式。 选择STANDALONE模式时,CDM支持在多个MRS集群的HDFS之间迁移数据。 若在一个CDM同时连接

  • 创建FusionInsight HDFS连接报错get filesystem怎么解决? - 云数据迁移 CDM

    创建FusionInsight HDFS数据连接时,测试连通性提示获取文件系统失败的问题。 解决方案 客户使用的管理ip有误,正确的ip使用的是集群的一个浮动ip,端口使用HDFS的webui的端口即可解决。 父主题: 故障处理类

  • 是否支持批量调度作业? - 云数据迁移 CDM

    支持。 访问DataArts Studio服务的数据开发模块。 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”,新建作业。 拖动多个CDM Job节点至画布,然后再编排作业。 父主题: 功能类

  • 什么是云数据迁移 - 云数据迁移 CDM

    在数据治理中心(DataArts Studio)服务,CDM作为其中的“数据集成”组件使用,产品能力与独立的CDM服务保持一致。因此,后文中的“云数据迁移”、“数据集成”均指CDM服务。 当前DataArts Studio已提供全新的离线集成作业能力。离线集成作业作为数据开发组件的一个作业类型,支持跨集群下

  • CDM有哪些优势? - 云数据迁移 CDM

    关人员,避免7*24小时人工值守。 高效率 在迁移过程,数据读写过程都是由一个单一任务完成的,受限于资源,整体性能较低,对于海量数据场景通常不能满足要求。 CDM任务基于分布式计算框架,自动将任务切分为独立的子任务并行执行,能够极大提高数据迁移的效率。针对Hive、HBase、

  • Oracle数据迁移到DWS - 云数据迁移 CDM

    自动创表:只有当源端和目的端都为关系数据库时,才有该参数。 表名:待写入数据的表名,可以手动输入一个不存在表名,CDM会在DWS自动创建该表。 存储模式:可以根据具体应用场景,建表的时候选择行存储还是列存储表。一般情况下,如果表的字段比较多(大宽表),查询涉及到的列不多的情况下,适合列存储。如果表的字段个数比较少

  • Oracle数据迁移到DWS - 云数据迁移 CDM

    自动创表:只有当源端和目的端都为关系数据库时,才有该参数。 表名:待写入数据的表名,可以手动输入一个不存在表名,CDM会在DWS自动创建该表。 存储模式:可以根据具体应用场景,建表的时候选择行存储还是列存储表。一般情况下,如果表的字段比较多(大宽表),查询涉及到的列不多的情况下,适合列存储。如果表的字段个数比较少

  • MySQL数据迁移到DWS - 云数据迁移 CDM

    作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,可打开此配置。这里保持默认值“否”。

  • MySQL数据迁移到DWS - 云数据迁移 CDM

    作业失败重试:如果作业执行失败,可选择是否自动重试,这里保持默认值“不重试”。 作业分组:选择作业所属的分组,默认分组为“DEFAULT”。在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,可打开此配置。这里保持默认值“否”。

  • 目的端为HBase/CloudTable - 云数据迁移 CDM

    是:开启后如果出现HBase服务器宕机,则可以从WAL回放执行之前没有完成的操作。 否:关闭时能提升写入性能,但如果HBase服务器宕机可能会造成数据丢失。 toJobConfig.transType 否 Boolean true:源端数据库的Short、Int、Long、Float、

  • 源端为对象存储 - 云数据迁移 CDM

    文件过滤器,过滤类型为通配符时配置,用于过滤目录下的文件,支持配置多个文件,中间使用“,”分隔,例如:“*.csv,*.txt”。 fromJobConfig.startTime 否 String “过滤类型”选择“时间过滤器”时,可以指定一个时间值,当文件的修改时间大于等于该时间才会被传输,输入的时间格式需为“yyyy-MM-dd

  • 产品优势 - 云数据迁移 CDM

    关人员,避免7X24小时人工值守。 高效率 在迁移过程,数据读写过程都是由一个单一任务完成的,受限于资源,整体性能较低,对于海量数据场景通常不能满足要求。 CDM任务基于分布式计算框架,自动将任务切分为独立的子任务并行执行,能够极大提高数据迁移的效率。针对Hive、HBase、

  • 约束与限制 - 云数据迁移 CDM

    Studio工作空间均可使用。 集群创建好以后不支持修改规格,如果需要使用更高规格的,需要重新创建一个集群。 CDM集群为ARM或X86版本,依赖于底层资源的架构。 CDM暂不支持控制迁移数据的速度,请避免在业务高峰期执行迁移数据的任务。 在迁移数据时CDM会对数据源端产生压力。建议创建新的数据库账

  • CDM迁移DWS数据报错Read timedout怎么处理? - 云数据迁移 CDM

    timed out; 故障分析 作业配置源端目标端均通过where语句多条件过滤,并非索引列,查询会全表扫描,且数据量在上亿行,数据量庞大,导致JDBC数据库连接失败,读取数据超时,进而导致sqoop异常,作业失败。 迁移作业是CDM作为客户端先从源数据抽取部分数据,写到目标端,在进行

  • 状态码 - 云数据迁移 CDM

    未满足前提条件,服务器未满足请求者在请求设置的其中一个前提条件。 413 Request Entity Too Large 由于请求的实体过大,服务器无法处理,因此拒绝请求。为防止客户端的连续请求,服务器可能会关闭连接。如果只是服务器暂时无法处理,则会包含一个Retry-After的响应信息。

  • 整库迁移到Hive,报错Identifier name is too long如何处理? - 云数据迁移 CDM

    name is too long如何处理? 问题描述 迁移任务报错表名太长,但表名实际没有这么长。 原因分析 在任务迁移时,导入数据前会先创建一个实际表名+阶段表后缀的阶段表,最终导致的作业异常。 解决方案 在作业配置高级属性将导入阶段表设置为否,这样就不会先导入阶段表。 缩短实际表的表名长度。

  • MySQL整库迁移到RDS服务 - 云数据迁移 CDM

    源连接名称:选择创建MySQL连接的“mysqllink”。 模式或表空间:选择从本地MySQL的哪个数据库导出数据。 目的端作业配置 目的连接名称:选择创建RDS连接的“rds_link”。 模式或表空间:选择将数据导入到RDS的哪个数据库。 自动创表:选择“不存在时创建”,当RDS数据库没有本地

  • MySQL整库迁移到RDS服务 - 云数据迁移 CDM

    源连接名称:选择创建MySQL连接的“mysqllink”。 模式或表空间:选择从本地MySQL的哪个数据库导出数据。 目的端作业配置 目的连接名称:选择创建RDS连接的“rds_link”。 模式或表空间:选择将数据导入到RDS的哪个数据库。 自动创表:选择“不存在时创建”,当RDS数据库没有本地