已找到以下 98 条记录
AI智能搜索
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 操作流程概述 - 云数据迁移 CDM

    操作流程概述 流程介绍 使用CDM+OBS+DLI进行贸易统计分析操作过程主要包括2个步骤: 使用CDM上传数据到OBS 通过CDM将H公司存量数据上传到对象存储服务OBS。 通过CDM作业定时任务,每天自动上传增量数据到OBS。 使用DLI分析数据 通过DLI直接分析OBS

  • 基本概念 - 云数据迁移 CDM

    基本概念 账号 用户注册时账号,账号对其所拥有的资源及云服务具有完全访问权限,可以重置用户密码、分配用户权限等。由于账号是付费主体,为了确保账号安全,建议您不要直接使用账号进行日常管理工作,而是创建IAM用户并使用他们进行日常管理工作。 IAM用户 由账号在IAM中创建用户

  • 基本概念 - 云数据迁移 CDM

    账号与IAM用户关系 用户组 用户组是IAM用户集合,IAM用户需要加入特定用户组后,才具备对应权限,否则无法访问您账号中任何资源或是云服务。一个IAM用户可以加入多个用户组,以获得不同权限。 “admin”为系统缺省提供用户组,具有所有云服务资源操作权限,将IAM

  • 云数据迁移 CDM - 云数据迁移 CDM

    Migration,简称CDM),是一种高效、易用批量数据迁移服务。 CDM围绕大数据迁移上云和智能数据湖解决方案,提供了简单易用迁移能力和多种数据源到数据湖集成能力,降低了客户数据源迁移和集成复杂性,有效提高您数据迁移和集成效率。 产品首页 图说ECS 立即使用 立即使用

  • 应用示例 - 云数据迁移 CDM

    API,迁移本地MySQL数据库中数据到云上服务DWS为例,介绍使用CDM API基本流程。 获取token 获取用户token,因为在后续请求中需要将token放到请求消息头中作为认证。 创建CDM集群 如果您已经创建过CDM集群,可以跳过该步骤,直接使用已创建集群ID。 如果您需

  • 步骤3:创建并执行作业 - 云数据迁移 CDM

    创建CDM迁移数据表作业,执行从MySQL数据库迁移表到DWS任务。 操作步骤 在集群管理界面,找到步骤1:创建集群章节创建集群“cdm-aff1”。 单击该CDM集群后“作业管理”,进入作业管理界面。 选择“表/文件迁移 > 新建作业”,配置作业基本信息。 图1 新建作业

  • SDK概述 - 云数据迁移 CDM

    Kit)是对CDM服务提供REST API进行封装,以简化开发者开发工作。通过调用此SDK包提供代码样例,即可通过API接口对CDM进行相关操作。 本文介绍了如何在API Explorer通过CDM API在线生成SDK代码,以及如何获取CDM服务SDK包地址和参考文档。

  • 场景介绍 - 云数据迁移 CDM

    Data Migration,以下简称CDM)基础使用方法,通过CDM迁移RDS for MySQL数据到数据仓库服务DWS具体操作,帮助您了解、熟悉CDM服务,具体场景如图1所示。 图1 MySQL迁移到DWS CDM基本使用流程如下: 创建CDM集群 创建连接 创建并执行作业

  • 通过数据开发使用参数传递灵活调度CDM作业 - 云数据迁移 CDM

    作业)。 实时处理作业:处理实时连续数据,主要用于实时性要求高场景。实时作业是由一个或多个节点组成业务关系,每个节点可单独被配置调度策略,而且节点启动任务可以永不下线。在实时作业里,带箭头连线仅代表业务上关系,而非任务执行流程,更不是数据流。 实时处理作业可以配置节点

  • 通过数据开发实现数据增量迁移 - 云数据迁移 CDM

    Studio服务DLF组件提供了一站式大数据协同开发平台,借助DLF在线脚本编辑、周期调度CDM迁移作业,也可以实现增量数据迁移。 这里以DWS导入到OBS为例,介绍DLF配合CDM实现增量迁移流程: 获取CDM作业JSON 修改JSON 创建DLF作业 获取CDM作业JSON

  • 身份认证与访问控制 - 云数据迁移 CDM

    Management,简称IAM)进行精细权限管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全控制华为云资源访问。关于IAM详细介绍,请参见IAM产品介绍。 权限根据授权精细程度分为角色和策略。 角色:IAM最初提供一种根据用户工作职能定义权限粗粒度授权机制。该机制

  • 查看并修改CDM集群配置 - 云数据迁移 CDM

    CDM集群已经创建成功后,您可以查看集群基本信息,并修改集群配置。 查看集群基本信息: 集群信息:集群版本、创建时间、项目ID、实例ID和集群ID等。 节点配置:集群规格、CPU和内存配置等信息。 网络信息:网络配置。 支持修改集群以下配置: 消息通知:CDM迁移作业(目前仅支持表/文件迁移作业)失败

  • 下载CDM集群日志 - 云数据迁移 CDM

    下载CDM集群日志 操作场景 本章节指导用户获取集群日志。集群日志可用于查看作业运行记录,定位作业失败原因等。 前提条件 已创建CDM集群。 操作步骤 登录CDM管理控制台。单击左侧导航上“集群管理”,进入集群管理界面。 或参考访问DataArts Studio实例控制台,登录DataArts

  • DES迁移一个月前历史数据 - 云数据迁移 CDM

    其中CDM相关操作,与CDM迁移近一个月数据相同,都是使用二进制直接传输文件目录,2个集群并发执行作业。 注意事项 当迁移动作影响到客户HDFS集群时,需要手动停止作业。 如果作业出现大批量失败: 先检查DES盒子是否被写满。如果写满,需要清除最近写入目录,保证后面写入数据都是完整。 再检查网络是否连通。

  • CDM迁移近一个月数据 - 云数据迁移 CDM

    包,可以跳过这部分内容。 如果您需要再创建新CDM集群,请参考购买批量数据迁移增量包章节,完成购买数据集成增量包操作。 集群规格选择“cdm.xlarge”。 集群所属VPC与MRS所属VPC一致,同时也要与云专线连通VPC一致。 其它参数可以自定义,或者保持默认。 创建CDH

  • Oracle数据迁移到DWS - 云数据迁移 CDM

    到DWS任务。 图4 创建Oracle到DWS迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建Oracle连接中“oracle_link”。 模式或表空间:待迁移数据数据库名称。 表名:待迁移数据表名。 高级属性里可选参数一般情况下保持默认即可。

  • MRS HDFS数据迁移到OBS - 云数据迁移 CDM

    ManagerIP地址,可以单击输入框后“选择”来选定已创建MRS集群,CDM会自动填充下面的鉴权参数。 用户名:选择KERBEROS鉴权时,需要配置MRS Manager用户名和密码。 从HDFS导出目录时,如果需要创建快照,这里配置用户需要HDFS系统管理员权限。 密码:访问MRS

  • OBS数据迁移到DLI服务 - 云数据迁移 CDM

    高级属性里可选参数保持默认。 目的连接名称:选择创建DLI连接中“dlilink”。 资源队列:选择目的表所属资源队列。 数据库名称:写入数据数据库名称。 表名:写入数据目的表。CDM暂不支持在DLI中自动创表,这里表需要先在DLI中创建好,且该表字段类型和格式

  • Elasticsearch整库迁移到云搜索服务 - 云数据迁移 CDM

    合通配符条件索引。例如这里配置为cdm*时,CDM将迁移所有名称为cdm开头索引:cdm01、cdmB3、cdm_45…… 目的端作业配置 目的连接名称:选择创建云搜索服务连接中“csslink”。 索引:待写入数据索引,这里可以选择一个云搜索服务中已存在索引,也可以手

  • MySQL数据迁移到OBS - 云数据迁移 CDM

    输入便于记忆和区分连接名称。 mysqllink 数据库服务器 MySQL数据库IP地址或域名。 - 端口 MySQL数据库端口。 3306 数据库名称 MySQL数据库名称。 sqoop 用户名 拥有MySQL数据库读、写和删除权限用户。 admin 密码 用户密码。 -