已找到以下 281 条记录
AI智能搜索
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 日志提示解析日期格式失败时怎么处理? - 云数据迁移 CDM

    器,将日期字段格式转换为云搜索服务目的端格式。 解决方案 编辑作业,进入作业字段映射步骤,在源端时间格式字段后面,选择新建转换器,如图3所示。 图3 新建转换器 转换器类型选择“表达式转换”,目前表达式转换支持字符串日期类型函数,语法Java字符串时间格式函数非

  • 配置分库源端参数 - 云数据迁移 CDM

    选择源连接名称为分库连接对应后端连接时,此作业即为普通MySQL作业。 新建源端为分库连接作业时,在字段映射阶段,可以在字段新增样值为“${custom(host)}”样式自定义字段,用于在多个数据库中多张表迁移到同一张表后,查看表数据来源。支持样值包括: ${custom(host)}

  • 自动建表原理介绍 - 云数据迁移 CDM

    自动建表原理介绍 CDM将根据源端字段类型进行默认规则转换成目的端字段类型,并在目的端建数据表。 自动建表时字段类型映射 CDM在数据仓库服务(Data Warehouse Service,简称DWS)中自动建表时,DWS表与字段类型映射关系如图1所示。例如使用CDM

  • 配置MySQL/SQL Server/PostgreSQL目的端参数 - 云数据迁移 CDM

    不存在时创建:当目的端数据库没有“表名”参数中指定表时,CDM会自动创建该表。如果“表名”参数配置表已存在,则不创建,数据写入到已存在表中。 先删除后创建:CDM先删除“表名”参数中指定表,然后再重新创建该表。 不自动创建 表名 写入数据目标表名,单击输入框后面的按钮可进入表选择界面。

  • 指定文件名迁移 - 云数据迁移 CDM

    从FTP/SFTP/OBS导出文件时,CDM支持指定文件名迁移,用户可以单次迁移多个指定文件(最多50个),导出多个文件只能写到目的端同一个目录。 在创建表/文件迁移作业时,如果源端数据为FTP/SFTP/OBS,CDM源端作业参数“源目录或文件”支持输入多个文件名(最多50个),文件名之间

  • 指定文件名迁移 - 云数据迁移 CDM

    从FTP/SFTP/OBS导出文件时,CDM支持指定文件名迁移,用户可以单次迁移多个指定文件(最多50个),导出多个文件只能写到目的端同一个目录。 在创建表/文件迁移作业时,如果源端数据为FTP/SFTP/OBS,CDM源端作业参数“源目录或文件”支持输入多个文件名(最多50个),文件名之间

  • CDM作业配置管理 - 云数据迁移 CDM

    数据迁移作业提交运行后,CDM会根据作业配置中“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据作业分片维度有所不同,因此某些作业可能出现未严格按作业“抽取并发数”参数分片情况。 CDM依次将Task提交给运行池运行。根据集群配置管理中“最大抽取并发数”参数,超出规格Task排队等待运行。

  • 字段转换器配置指导 - 云数据迁移 CDM

    isNumeric(value) 获取字符串最左端指定长度字符,例如获取“abc”最左端2位字符“ab”。 表达式:StringUtils.left(value,2) 获取字符串最右端指定长度字符,例如获取“abc”最右端2位字符“bc”。 表达式:StringUtils

  • 字段转换器配置指导 - 云数据迁移 CDM

    isNumeric(value) 获取字符串最左端指定长度字符,例如获取“abc”最左端2位字符“ab”。 表达式:StringUtils.left(value,2) 获取字符串最右端指定长度字符,例如获取“abc”最右端2位字符“bc”。 表达式:StringUtils

  • 产品优势 - 云数据迁移 CDM

    数据迁移效率。针对Hive、HBase、MySQL、DWS(数据仓库服务)数据,使用高效数据导入接口导入数据。 多种数据支持 数据类型繁杂,针对不同数据开发不同任务,脚本数量成千上万。 支持数据库、Hadoop、NoSQL、数据仓库、文件等多种类型数据,具体数据类型请参见支持的数据源。

  • 云数据迁移 CDM - 云数据迁移 CDM

    简称CDM),是一种高效、易用数据集成服务。 CDM围绕大数据迁移上云和智能数据湖解决方案,提供了简单易用迁移能力多种数据到数据湖集成能力,降低了客户数据迁移集成复杂性,有效提高您数据迁移集成效率。 什么是云数据迁移 产品优势 迁移原理 支持数据 已发布区域:全部 集群管理

  • CDM有哪些优势? - 云数据迁移 CDM

    数据迁移效率。针对Hive、HBase、MySQL、DWS(数据仓库服务)数据,使用高效数据导入接口导入数据。 多种数据支持 数据类型繁杂,针对不同数据开发不同任务,脚本数量成千上万。 支持数据库、Hadoop、NoSQL、数据仓库、文件等多种类型数据。 多种网络环境支持

  • 迁移原理 - 云数据迁移 CDM

    针对恶意用户威胁:CDM对每个用户,使用单独虚拟机来运行各自CDM实例,用户之间实例是完全隔离安全。恶意用户无法访问其他用户实例。 针对数据暴露公网威胁:CDM抽取-写入模型下,即使CDM绑定了弹性IP,也不会开放端口到弹性IP,攻击者无法通过弹性IP来访问攻击CD

  • 配置Oracle目的端参数 - 云数据迁移 CDM

    默认为“否”,CDM直接将数据导入到目的表。这种情况下如果作业执行失败,已经导入到目标表中数据不会自动滚。 说明: 如果“导入开始前”选择“清除部分数据”或“清除全部数据”,CDM事务模式不会滚已经删除数据。 否 导入前准备语句 执行任务之前率先执行SQL语句。目前向导模式仅允许执行一条SQL语句。 create

  • 基本概念 - 云数据迁移 CDM

    由账号在IAM中创建用户,类似于子账号,具有身份凭证(密码访问密钥),可以使用自己单独用户名密码通过控制台或者API访问云服务。IAM用户根据账号授予权限,帮助账号管理资源。IAM用户不拥有资源,不进行独立计费,这些IAM用户权限资源由所属账号统一控制付费。IAM用户

  • 字段映射界面无法显示所有列怎么处理? - 云数据迁移 CDM

    images state 在CDM作业管理界面,找到HBase到DWS作业,选择作业后面的“更多 > 编辑作业JSON”。 在CDM界面编辑作业JSON文件。 修改源端“fromJobConfig.columns”参数,配置为1获取HBase字段,列号之间使用“&”分隔,列族与列之间用“:”分隔,如下:

  • 功能类 - 云数据迁移 CDM

    是否支持字段转换? Hadoop类型数据进行数据迁移时,建议使用组件版本有哪些? 数据为Hive时支持哪些数据格式? 是否支持同步作业到其他集群? 是否支持批量创建作业? 是否支持批量调度作业? 如何备份CDM作业? 如何解决HANA集群只有部分节点CDM集群网络互通? 如何使用Java调用CDM的Rest

  • 已购买包年包月CDM套餐包,为什么还会产生按需计费费用? - 云数据迁移 CDM

    已购买包年包月CDM套餐包,为什么还会产生按需计费费用? 请您先确认套餐包实际CDM集群是否具有相同区域规格,如果非相同区域规格,则无法使用套餐包。CDM集群规格区域可以通过进入CDM主界面,进入“集群管理”,单击集群列表中集群名称查看。 如果套餐包实际CDM集群

  • 创建CDM集群 - 云数据迁移 CDM

    能正常通信。用户可以根据CDM迁移数据源端、目的端所处网络进行选择: 如果CDM集群与待连接数据所属不同VPC,或者待连接为本地数据时,CDM集群需要绑定EIP,通过公网通信。 如果待连接数据为云上服务,则推荐CDM集群网络配置与该云服务一致,此时CDM集群不用绑定EIP,通过内网通信。

  • 时间宏变量使用解析 - 云数据迁移 CDM

    在创建表/文件迁移作业时,CDM支持在源端目的端以下参数中配置时间宏变量: 源端源目录或文件 源端表名 “通配符”过滤类型中目录过滤器和文件过滤器 “时间过滤”中起始时间终止时间 分区过滤条件Where子句 目的端写入目录 目的端表名 支持通过宏定义变量表示符“${}”来完成时间类型宏定义,