已找到以下 179 条记录
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
产品选择
没有找到结果,请重新输入
  • OBS数据迁移到DLI服务 - 云数据迁移 CDM

    高级属性里可选参数保持默认。 目的连接名称:选择创建DLI连接中“dlilink”。 资源队列:选择目的表所属资源队列。 数据库名称:写入数据数据库名称。 表名:写入数据目的表。CDM暂不支持在DLI中自动创表,这里表需要先在DLI中创建好,且该表字段类型和格式

  • 身份认证与访问控制 - 云数据迁移 CDM

    Management,简称IAM)进行精细权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全控制华为云资源访问。关于IAM详细介绍,请参见IAM产品介绍。 权限根据授权精细程度分为角色和策略。 角色:IAM最初提供一种根据用户工作职能定义权限粗粒度授权机制。该机制

  • 构造请求 - 云数据迁移 CDM

    附加请求头字段,如指定URI和HTTP方法所要求字段。例如定义消息体类型请求头“Content-Type”,请求鉴权信息等。 需要添加到请求中公共消息头如表3所示。 表3 公共请求消息头 名称 描述 是否必选 示例 Content-type 消息体类型(格式),默认取值

  • OBS数据迁移到DLI服务 - 云数据迁移 CDM

    高级属性里可选参数保持默认。 目的连接名称:选择创建DLI连接中“dlilink”。 资源队列:选择目的表所属资源队列。 数据库名称:写入数据数据库名称。 表名:写入数据目的表。CDM暂不支持在DLI中自动创表,这里表需要先在DLI中创建好,且该表字段类型和格式

  • MRS HDFS数据迁移到OBS - 云数据迁移 CDM

    ManagerIP地址,可以单击输入框后“选择”来选定已创建MRS集群,CDM会自动填充下面的鉴权参数。 用户名:选择KERBEROS鉴权时,需要配置MRS Manager用户名和密码。 从HDFS导出目录时,如果需要创建快照,这里配置用户需要HDFS系统管理员权限。 密码:访问MRS

  • MRS HDFS数据迁移到OBS - 云数据迁移 CDM

    ManagerIP地址,可以单击输入框后“选择”来选定已创建MRS集群,CDM会自动填充下面的鉴权参数。 用户名:选择KERBEROS鉴权时,需要配置MRS Manager用户名和密码。 从HDFS导出目录时,如果需要创建快照,这里配置用户需要HDFS系统管理员权限。 密码:访问MRS

  • OBS数据迁移到云搜索服务 - 云数据迁移 CDM

    新建作业”,开始创建从OBS导出数据到云搜索服务任务。 图6 创建OBS到云搜索服务迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建OBS连接中“obslink”。 桶名:待迁移数据桶。 源目录或文件:待迁移数据路径,也可以迁移桶下所有目录、文件。 文

  • OBS数据迁移到云搜索服务 - 云数据迁移 CDM

    新建作业”,开始创建从OBS导出数据到云搜索服务任务。 图6 创建OBS到云搜索服务迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建OBS连接中“obslink”。 桶名:待迁移数据桶。 源目录或文件:待迁移数据路径,也可以迁移桶下所有目录、文件。 文

  • MySQL数据迁移到OBS - 云数据迁移 CDM

    输入便于记忆和区分连接名称。 mysqllink 数据库服务器 MySQL数据库IP地址或域名。 - 端口 MySQL数据库端口。 3306 数据库名称 MySQL数据库名称。 sqoop 用户名 拥有MySQL数据库读、写和删除权限用户。 admin 密码 用户密码。 -

  • MySQL数据迁移到OBS - 云数据迁移 CDM

    输入便于记忆和区分连接名称。 mysqllink 数据库服务器 MySQL数据库IP地址或域名。 - 端口 MySQL数据库端口。 3306 数据库名称 MySQL数据库名称。 sqoop 用户名 拥有MySQL数据库读、写和删除权限用户。 admin 密码 用户密码。 -

  • 区域和可用区 - 云数据迁移 CDM

    区域。 资源价格 不同区域资源价格可能有差异,请参见华为云服务价格详情。 如何选择可用区? 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延要求。 如果您应用需要较高容灾能力,建议您将资源部署在同一区域不同可用区内。 如果您应用要求实例之间网络延时较低,则建议您将资源创建在同一可用区内。

  • 参考:作业分片维度 - 云数据迁移 CDM

    CDM在进行作业分片时,根据源端数据源差异,分片维度有所不同。详情如表1所示。 表1 不同源端数据源作业分片维度 数据源分类 源端数据源 作业分片原理 数据仓库 数据仓库服务(DWS) 支持按表字段分片。 不支持按表分区分片。 数据湖探索(DLI) 支持分区表分区信息分片。 不支持非分区表分片。

  • 配置Kafka/DMS Kafka源端参数 - 云数据迁移 CDM

    从Kafka拉取数据时初始偏移量: 最新:最大偏移量,即拉取最新数据。 最早:最小偏移量,即拉取最早数据。 已提交:拉取已提交数据。 时间范围:拉取时间范围内数据。 最新 抽取数据最大运行时间 持续拉取数据时间。如天调度作业,根据每天topic产生数据量,配置足够拉取时间。单位:分钟。

  • 步骤3:创建并执行作业 - 云数据迁移 CDM

    创建CDM迁移数据表作业,执行从MySQL数据库迁移表到DWS任务。 操作步骤 在集群管理界面,找到步骤1:创建集群章节创建集群“cdm-aff1”。 单击该CDM集群后“作业管理”,进入作业管理界面。 选择“表/文件迁移 > 新建作业”,配置作业基本信息。 图1 新建作业

  • 配置HBase/CloudTable目的端参数 - 云数据迁移 CDM

    不自动创建:不自动建表。 不存在时创建:当目的端数据库没有“表名”参数中指定表时,CDM会自动创建该表。如果“表名”参数配置表已存在,则不创建,数据写入到已存在表中。 说明: Hbase自动建表包含列族与协处理器Coprocessor信息。其他属性按默认值设置,不跟随源端。 不自动创建 Row key拼接分隔符

  • 启动作业 - 云数据迁移 CDM

    X-Auth-Token 是 String 用户Token。 通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token值)。 表3 请求Body参数 参数 是否必选 参数类型 描述 variables 否 Object 启动作业,配置变量参数,作业配置无变量时,为空对象。

  • 记录数据迁移入库时间 - 云数据迁移 CDM

    单击“保存并运行”,回到作业管理表/文件迁移界面,在作业管理界面可查看作业执行进度和结果。 作业执行成功后,单击作业操作列“历史记录”,可查看该作业历史执行记录、读取和写入统计数据。 在历史记录界面单击“日志”,可查看作业日志信息。 前往目的端数据源查看数据迁移入库时间。 父主题:

  • 配置Elasticsearch/云搜索服务(CSS)目的端参数 - 云数据迁移 CDM

    表/文件迁移和整库迁移时需配置参数不同,下表参数为表/文件迁移时全量参数,实际参数以界面显示为准。 表1 Elasticsearch/云搜索服务(CSS)作为目的端时作业参数 参数名 说明 取值样例 索引 待写入数据Elasticsearch索引,类似关系数据库中数据库名称。CDM

  • 文件格式介绍 - 云数据迁移 CDM

    字段分隔符 用于分隔CSV文件中字符,支持单字符和多字符,也支持特殊字符,详见表1。 编码类型 文件编码类型,默认是UTF-8,中文编码有时会采用GBK。 如果源端指定该参数,则使用指定编码类型去解析文件;目的端指定该参数,则写入文件时候,以指定编码类型写入。 使用包围符

  • 文件格式介绍 - 云数据迁移 CDM

    字段分隔符 用于分隔CSV文件中字符,支持单字符和多字符,也支持特殊字符,详见表1。 编码类型 文件编码类型,默认是UTF-8,中文编码有时会采用GBK。 如果源端指定该参数,则使用指定编码类型去解析文件;目的端指定该参数,则写入文件时候,以指定编码类型写入。 使用包围符