已找到以下 56 条记录
AI智能搜索
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 区域可用区 - 云数据迁移 CDM

    区域可用区 什么是区域、可用区? 我们用区域可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region):从地理位置网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。Region分为通用

  • 与其他云服务的关系 - 云数据迁移 CDM

    DS。 云搜索服务 CDM支持从云搜索服务(Cloud Search Service,简称CSS)导入、导出数据。 数据接入服务 CDM支持导入数据到数据接入服务(Data Ingestion Service,简称DIS),从DIS导出时,目前只支持导出到云搜索服务CSS。 表格存储服务

  • 应用场景 - 云数据迁移 CDM

    、OLAP数据库、文件系统等。 这个场景是用户希望利用云上的计算存储资源,需要先将本地数据迁移上云。该场景下,需要保证本地网络与云上网络是连通的。 图1 大数据迁移上云 数据批量入湖 这个场景支持用户本地数据全量T+1增量入湖。 图2 数据批量入湖

  • 如何降低CDM使用成本? - 云数据迁移 CDM

    性IP),记录下CDM集群所在的VPC子网。 创建NAT网关,注意选择CDM集群相同的VPC、子网。 创建完NAT网关后,回到NAT网关控制台列表,单击创建好的网关名称,然后选择“添加SNAT规则”。 图1 添加SNAT规则 选择子网弹性IP,如果没有弹性IP,需要先申请一个。

  • 云数据库MySQL/MySQL数据库连接参数说明 - 云数据迁移 CDM

    可选参数,单击“显示高级属性”后显示。 指定每次请求获取的行数,根据数据源端作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。 1000 单次提交行数 可选参数,单击“显示高级属性”后显示。 指定每次批量提交的行数,根据数据目的端作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。

  • 新建表/文件迁移作业 - 云数据迁移 CDM

    约束限制 记录脏数据功能依赖于OBS服务。 作业导入时,JSON文件大小不超过1MB。 单文件传输大小不超过1TB。 配置源端目的端参数时,字段名不可包含&%。 前提条件 已新建连接,详情请参见创建CDM与数据源之间的连接。 CDM集群与待迁移数据源可以正常通信。 操作步骤 进入

  • 通过CDM节点批量创建分表迁移作业 - 云数据迁移 CDM

    个数据迁移作业。您可以参考本教程,通过数据开发模块的For Each节点CDM节点,配合作业参数,实现批量创建分表迁移作业。 本教程中,源端MySQL数据库中存在三张分表,分别是mail01、mail02mail03,且表结构一致,数据内容不同。目的端为MRS Hive服务。

  • 基本概念 - 云数据迁移 CDM

    由账号在IAM中创建的用户,类似于子账号,具有身份凭证(密码访问密钥),可以使用自己单独的用户名密码通过控制台或者API访问云服务。IAM用户根据账号授予的权限,帮助账号管理资源。IAM用户不拥有资源,不进行独立的计费,这些IAM用户的权限资源由所属账号统一控制付费。IAM用户在登录控制台登录时,使用“IAM用户登录”方式登录。

  • 参考:作业分片维度 - 云数据迁移 CDM

    文档数据库服务(DDS) 不支持分片。 MongoDB 不支持分片。 Cassandra 支持按Cassandra的token range分片。 消息系统 数据接入服务(DIS) 支持按topic分片。 Apache Kafka 支持按topic分片。 DMS Kafka 支持按topic分片。 MRS

  • 时间宏变量使用解析 - 云数据迁移 CDM

    时间宏变量使用解析 在创建表/文件迁移作业时,CDM支持在源端目的端的以下参数中配置时间宏变量: 源端的源目录或文件 源端的表名 “通配符”过滤类型中的目录过滤器和文件过滤器 “时间过滤”中的起始时间终止时间 分区过滤条件Where子句 目的端的写入目录 目的端的表名 支持通过宏

  • 时间宏变量使用解析 - 云数据迁移 CDM

    时间宏变量使用解析 在创建表/文件迁移作业时,CDM支持在源端目的端的以下参数中配置时间宏变量: 源端的源目录或文件 源端的表名 “通配符”过滤类型中的目录过滤器和文件过滤器 “时间过滤”中的起始时间终止时间 分区过滤条件Where子句 目的端的写入目录 目的端的表名 支持通过宏

  • 创建CDM与数据源之间的连接 - 云数据迁移 CDM

    创建CDM与数据源之间的连接 操作场景 用户在创建数据迁移的任务前,需要先创建连接,让CDM集群能够读写数据源。一个迁移任务,需要建立两个连接,源连接目的连接。不同的迁移方式(表或者文件迁移),哪些数据源支持导出(即作为源连接),哪些数据源支持导入(即作为目的连接),详情请参见支持的数据源。

  • 约束与限制 - 云数据迁移 CDM

    不支持Oracle实时增量数据同步。 分布式缓存服务(DCS)Redis数据源约束 第三方云的Redis服务无法支持作为源端。如果是用户在本地数据中心或ECS上自行搭建的Redis支持作为源端或目的端。 仅支持HashString两种数据格式。 文档数据库服务(DDS)MongoDB数据源约束 从Mon

  • 管理单个CDM作业 - 云数据迁移 CDM

    可对已经配置好的数据库类作业打开预览窗口,预览最多1000条数据内容。可对比源端目的端的数据,也可以通过对比记录数来看迁移结果是否成功、数据是否丢失。 修改 修改作业参数 可重新配置作业参数,支持重新选择源连接目的连接。 编辑作业JSON 直接编辑作业的JSON文件,作用等同于修改作业的参数配置。

  • 迁移原理 - 云数据迁移 CDM

    目的端,数据访问操作均由CDM主动发起,对于数据源(如RDS数据源)支持SSL时,会使用SSL加密传输。迁移过程要求用户提供源端目的端数据源的用户名密码,这些信息将存储在CDM实例的数据库中。保护这些信息对于CDM安全至关重要。 图1 CDM迁移原理 安全边界和风险规避 图2

  • 如何将云下内网或第三方云上的私网与CDM连通? - 云数据迁移 CDM

    运行端口映射工具,选择“端口映射”,如图2所示。 本地地址、本地端口:配置为网关机的公网地址端口(后续在CDM上创建MySQL连接时输入这个地址端口)。 映射地址、映射端口:配置为内网MySQL的地址端口。 图2 配置端口映射 单击“增加”,添加端口映射关系。 单击“开始映射”,这时才会真正开始映射,接收数据包。

  • 配置CDM作业定时任务 - 云数据迁移 CDM

    现异常。 如果通过DataArts Studio数据开发调度CDM迁移作业,此处也配置了定时任务,则两种调度均会生效。为了业务运行逻辑统一避免调度冲突,推荐您启用数据开发调度即可,无需配置CDM定时任务。 定时任务功能原理:采用Java Quartz定时器,类似Cron表达式配

  • 支持的数据源(2.9.2.200) - 云数据迁移 CDM

    搜索:Elasticsearch,云搜索服务(CSS) 云数据库 MySQL不支持SSL模式。 Microsoft SQL Server建议使用的版本:2005以上。 金仓GaussDB数据源可通过PostgreSQL连接器进行连接,支持的迁移作业的源端、目的端情况与PostgreSQL数据源一致。 云数据库 SQL

  • PostgreSQL/SQLServer连接参数说明 - 云数据迁移 CDM

    可选参数,单击“显示高级属性”后显示。 指定每次请求获取的行数,根据数据源端作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。 1000 单次提交行数 可选参数,单击“显示高级属性”后显示。 指定每次批量提交的行数,根据数据目的端作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。

  • Kafka连接参数说明 - 云数据迁移 CDM

    需要配置MRS Manager的用户名密码。 如果要创建MRS安全集群的数据连接,不能使用admin用户。因为admin用户是默认的管理页面用户,这个用户无法作为安全集群的认证用户来使用。您可以创建一个新的MRS用户,然后在创建MRS数据连接时,“用户名”“密码”填写为新建的MRS用户及其密码。