已找到以下 233 条记录
AI智能搜索
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 应用场景 - 云数据迁移 CDM

    应用场景 大数据迁移上云 本地数据是指存储在用户自建或者租用的IDC中的数据,或者第三方云环境中的数据,包括关系型数据库、NoSQL数据库、OLAP数据库、文件系统等。 这个场景是用户希望利用云的计算和存储资源,需要先将本地数据迁移上云。该场景下,需要保证本地网络与云上网络是连通的。

  • 如何降低CDM使用成本? - 云数据迁移 CDM

    选择子网和弹性IP,如果没有弹性IP,需要先申请一个。 完成之后,就可以到CDM控制台,通过Internet迁移公网的数据云了。例如:迁移本地数据中心FTP服务器文件到OBS、迁移第三方云上关系型数据库到云服务RDS。 父主题: 通用类

  • DLI外表(OBS文件)迁移DWS某字段转义,带有“\” - 云数据迁移 CDM

    DLI外表(OBS文件)迁移DWS某字段转义,带有“\” 问题描述 DLI 外表CDM服务将数据迁移到DWS(GaussDB)时候,有个字段迁移后多了一对引号,字段本身的引号多了转义符,其他字段没问题。 源端: 目的端: 故障分析 根据截图可以看出,源端样值中有符号:{ 括号 ”

  • 是否支持批量创建作业? - 云数据迁移 CDM

    CDM可以通过批量导入的功能,实现批量创建作业,方法如下: 手动创建一个作业。 导出作业,将作业的JSON文件保存到本地。 编辑JSON文件,参考该作业的配置,在JSON文件中批量复制出更多作业。 将JSON文件导入CDM集群,实现批量创建作业。 您也可以参考通过CDM算子批量创建分表迁移作业,配合For

  • 操作流程概述 - 云数据迁移 CDM

    使用CDM上传数据到OBS 通过CDM将H公司存量数据上传到对象存储服务OBS。 通过CDM作业的定时任务,每天自动上传增量数据到OBS。 使用DLI分析数据 通过DLI直接分析OBS中的业务数据,支撑H公司客户进行贸易统计分析。 父主题: 贸易数据极简云与统计分析

  • Redis连接参数说明 - 云数据迁移 CDM

    Redis连接参数说明 Redis连接适用于用户在本地数据中心或ECS上自建的Redis,适用于将数据库或文件中的数据加载到Redis。 Redis连接不支持SSL加密的Redis数据源。 连接本地Redis数据库时,相关参数如表1所示。 作业运行中禁止修改密码或者更换用户。在作

  • 支持的数据源(2.9.2.200) - 云数据迁移 CDM

    支持的数据源(2.9.2.200) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入湖和数据云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入湖和数据云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。

  • 支持的数据源(2.9.2.200) - 云数据迁移 CDM

    支持的数据源(2.9.2.200) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入湖和数据云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入湖和数据云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。

  • 支持的数据源(2.9.3.300) - 云数据迁移 CDM

    支持的数据源(2.9.3.300) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入湖和数据云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入湖和数据云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。

  • 支持的数据源(2.10.0.300) - 云数据迁移 CDM

    10.0.300) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入湖和数据云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入湖和数据云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。

  • 支持的数据源(2.9.3.300) - 云数据迁移 CDM

    支持的数据源(2.9.3.300) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入湖和数据云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入湖和数据云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。

  • 支持的数据源(2.10.0.300) - 云数据迁移 CDM

    10.0.300) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入湖和数据云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入湖和数据云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。

  • 云数据迁移安全简介 - 云数据迁移 CDM

    由流动。支持多种常用数据源,如客户自建或公有云文件系统,关系数据库,数据仓库,NoSQL数据库,大数据云服务,对象存储等数据源。 CDM适用于以下场景: 数据云:使用华为公有云服务时,用户可以将其历史数据或增量数据从私有云/本地数据中心/第三方公有云迁移到华为云。 云服务间

  • 创建MRS数据连接时测试连通性报下载配置文件失败错误怎么处理? - 云数据迁移 CDM

    创建MRS数据连接时测试连通性报下载配置文件失败错误怎么处理? 问题描述 创建MRS连接器报如下错误,在Manager检查用户权限是有的,检查网络也都是通的。 解决方案 登录Manager初始化用户后,重新建立数据连接即可。 父主题: 故障处理类

  • 是否支持同步作业到其他集群? - 云数据迁移 CDM

    将CDM集群1中的所有作业批量导出,将作业的JSON文件保存到本地。 由于安全原因,CDM导出作业时没有导出连接密码,连接密码全部使用“Add password here”替换。 在本地编辑JSON文件,将“Add password here”替换为对应连接的正确密码。 将编辑好的JSON文件批量导入到CDM集群2,实现集群1和集群2之间的作业同步。

  • 基本概念 - 云数据迁移 CDM

    1个或多个虚拟机组成。一个用户可以创建多个CDM集群,例如为财务部门和采购部门各创建一个CDM实例,实现数据访问权限的隔离。 本地环境 本地环境是指用户自建或者租用的IDC中的数据存储系统,或者第三方云环境中的数据存储系统,包括关系型数据库以及文件系统。 本地数据 本地数据是指存

  • MRS HDFS数据迁移到OBS - 云数据迁移 CDM

    源连接名称:选择创建MRS HDFS连接中的“hdfs_llink”。 源目录或文件:待迁移数据的目录或单个文件路径。 文件格式:传输数据时所用的文件格式,这里选择“二进制格式”。不解析文件内容直接传输,不要求文件格式必须为二进制。适用于文件文件的原样复制。 其他可选参数一般情况下保持默认即可。 目的端作业配置

  • 服务韧性 - 云数据迁移 CDM

    CDM通过流量限制、备份恢复等技术方案,保障数据的持久性和可靠性。 关于CDM备份,用户可以先通过CDM的批量导出功能,把所有作业脚本保存到本地,在需要的时候再重新创建集群、重新导入作业,实现作业备份。 父主题: 安全

  • MRS HDFS数据迁移到OBS - 云数据迁移 CDM

    源连接名称:选择创建MRS HDFS连接中的“hdfs_llink”。 源目录或文件:待迁移数据的目录或单个文件路径。 文件格式:传输数据时所用的文件格式,这里选择“二进制格式”。不解析文件内容直接传输,不要求文件格式必须为二进制。适用于文件文件的原样复制。 其他可选参数一般情况下保持默认即可。 目的端作业配置

  • MySQL整库迁移到RDS服务 - 云数据迁移 CDM

    用户已购买RDS数据库实例,该实例的数据库引擎为MySQL。 本地MySQL数据库可通过公网访问。如果MySQL服务器是在本地数据中心或第三方云,需要确保MySQL可以通过公网IP访问,或者是已经建立好了企业内部数据中心到云服务平台的VPN通道或专线。 已获取本地MySQL数据库和RDSMySQL数据库的IP地址、数据库名称、用户名和密码。