已找到以下 371 条记录
AI智能搜索
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 删除CDM集群 - 云数据迁移 CDM

    待删除集群中所需连接和作业数据已通过批量管理CDM作业中导出作业功能进行备份。 对于购买DataArts Studio服务时系统赠送CDM集群,非常不建议您进行删除操作。该集群删除后无法再次赠送,只能另外购买。 删除集群后,CDM集群不再按需计费或扣除套餐时长。如果您为删除CDM集

  • 创建MRS Hive连接器 - 云数据迁移 CDM

    Manager用户名和密码。从HDFS导出目录时,如果需要创建快照,这里配置用户需要HDFS系统管理员权限。 如果要创建MRS安全集群数据连接,不能使用admin用户。因为admin用户是默认管理页面用户,这个用户无法作为安全集群认证用户来使用。您可以创建一个新MRS用户

  • 上传存量数据 - 云数据迁移 CDM

    CDM会迁移整个目录下文件到OBS。 文件格式:选择“二进制格式”。这里文件格式是指CDM传输数据时所用格式,不会改变原始文件自身格式。迁移文件到文件时,推荐使用“二进制格式”,传输效率和性能都最优。 目的端作业配置: 目的连接名称:选择7创建OBS连接“obslink”。

  • 迁移文件时加解密 - 云数据迁移 CDM

    异常。 初始化向量:这里初始化向量必须与加密时配置初始化向量一致,否则解密出来数据会错误,且系统不会提示异常。 这样CDM从HDFS导出加密过文件时,写入目的端文件便是解密后明文文件。 目的端配置加密 创建CDM导入文件到HDFS作业时,目的端数据源选择HDFS、文

  • 管理集群标签 - 云数据迁移 CDM

    标签键(key)最大长度为36个字符,标签值(value)最大长度为43个字符。 (可选)在标签列表中,单击标签操作列“删除”,删除CDM集群标签。 通过以下两种方式筛选出所配置标签资源。 在标签管理服务中,选择资源搜索条件,单击“搜索”即可筛选出所配置标签资源。 在集群列

  • 创建MRS Hive连接器 - 云数据迁移 CDM

    Manager用户名和密码。从HDFS导出目录时,如果需要创建快照,这里配置用户需要HDFS系统管理员权限。 如果要创建MRS安全集群数据连接,不能使用admin用户。因为admin用户是默认管理页面用户,这个用户无法作为安全集群认证用户来使用。您可以创建一个新MRS用户

  • 迁移文件时加解密 - 云数据迁移 CDM

    异常。 初始化向量:这里初始化向量必须与加密时配置初始化向量一致,否则解密出来数据会错误,且系统不会提示异常。 这样CDM从HDFS导出加密过文件时,写入目的端文件便是解密后明文文件。 目的端配置加密 创建CDM导入文件到HDFS作业时,目的端数据源选择HDFS、文

  • 步骤2:创建连接 - 云数据迁移 CDM

    输入便于记忆和区分连接名称。 dwslink 数据库服务器 DWS数据库IP地址或域名。 - 端口 DWS数据库端口。 8000 数据库名称 DWS数据库名称。 db_demo 用户名 拥有DWS数据库读、写和删除权限用户。 dbadmin 密码 用户密码。 - 使用Agent

  • 概述 - 云数据迁移 CDM

    批量数据迁移服务,帮助您实现数据自由流动。支持自建和云上文件系统,关系数据库,数据仓库,NoSQL,大数据云服务,对象存储等数据源。 您可以使用本文档提供API对云数据迁移服务进行操作,如创建集群、创建迁移任务等,支持全部操作请参见API概览。 在调用云数据迁移服务API之

  • 区域和可用区 - 云数据迁移 CDM

    区域。 资源价格 不同区域资源价格可能有差异,请参见华为云服务价格详情。 如何选择可用区? 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延要求。 如果您应用需要较高容灾能力,建议您将资源部署在同一区域不同可用区内。 如果您应用要求实例之间网络延时较低,则建议您将资源创建在同一可用区内。

  • 不支持数据类型转换规避指导 - 云数据迁移 CDM

    操作场景 CDM在配置字段映射时提示字段数据类型不支持,要求删除该字段。如果需要使用该字段,可在源端作业配置中使用SQL语句对字段类型进行转换,转换成CDM支持类型,达到迁移数据目的。 操作步骤 修改CDM迁移作业,通过使用SQL语句方式迁移。 SQL语句格式为:“select

  • HBase连接 - 云数据迁移 CDM

    CloudTable:表示连接CloudTable服务。 MRS:表示连接MRSHBase。 FusionInsight HD:表示连接FusionInsight HDHBase。 Apache Hadoop:表示连接开源Apache HadoopHBase。 linkConfig.uri 否 String

  • 新建Hadoop集群配置 - 云数据迁移 CDM

    集群配置名:根据连接数据源类型,用户可自定义便于记忆、区分集群配置名。 上传集群配置:单击“添加文件”以选择本地集群配置文件,然后通过操作框右侧“上传文件”进行上传。 Principal:仅安全模式集群需要填写该参数。Principal即Kerberos安全模式下用户名,需要与Keytab文件保持一致。

  • 操作流程概述 - 云数据迁移 CDM

    使用CDM+OBS+DLI进行贸易统计分析操作过程主要包括2个步骤: 使用CDM上传数据到OBS 通过CDM将H公司存量数据上传到对象存储服务OBS。 通过CDM作业定时任务,每天自动上传增量数据到OBS。 使用DLI分析数据 通过DLI直接分析OBS中业务数据,支撑H公司客户进行贸易统计分析。

  • 定时任务失败,检查连接器连接存在问题 - 云数据迁移 CDM

    查询集群信息,获取公网IP,从CDM集群curl源端数据库地址,如下所示。 从结果看考虑是CDM集群自身问题。通过EIP查询对应公网IP绑定情况是未绑定。 建议先解除绑定,再绑定后问题解决。 解决方案 释放掉EIP之后,给CDM集群重新绑定EIP;或者给CDM VPC委托,然后可以检测这个EIP是否异常

  • 计费说明 - 云数据迁移 CDM

    如果当前绑定区域有1个或多个对应实例规格CDM集群,则扣费方式是先扣除已购买资源包内时长额度,超出部分以按需计费方式进行结算(资源包对应多个集群时,会出现每月订购周期内可使用时长不足情况)。 例如购买了1个月折扣套餐(745小时/月),按区域和实例规格匹配到两个CDM集群后,从当前开始1个月订购有

  • 创建CDM集群 - 云数据迁移 CDM

    能正常通信。用户可以根据CDM迁移数据源端、目的端所处网络进行选择: 如果CDM集群与待连接数据源所属不同VPC,或者待连接为本地数据源时,CDM集群需要绑定EIP,通过公网通信。 如果待连接数据源为云上服务,则推荐CDM集群网络配置与该云服务一致,此时CDM集群不用绑定EIP,通过内网通信。

  • CDM作业配置管理 - 云数据迁移 CDM

    数据迁移作业提交运行后,CDM会根据作业配置中“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据源作业分片维度有所不同,因此某些作业可能出现未严格按作业“抽取并发数”参数分片情况。 CDM依次将Task提交给运行池运行。根据集群配置管理中“最大抽取并发数”参数,超出规格Task排队等待运行。

  • 配置Hive目的端参数 - 云数据迁移 CDM

    示写入表数据时,用户选择操作: 不自动创建:不自动建表。 不存在时创建:当目的端数据库没有“表名”参数中指定表时,CDM会自动创建该表。如果“表名”参数配置表已存在,则不创建,数据写入到已存在表中。 先删除后创建:CDM先删除“表名”参数中指定表,然后再重新创建该表。

  • 步骤1:创建集群 - 云数据迁移 CDM

    当CDM集群与其他云服务所在区域不一致时,则需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP、CDM云上安全组出方向放通云下数据源所在主机、数据源所在主机可以访问公网且防火墙规则已开放连接端口。 另外,如果创建了企业项目,则企业项目也会影响CDM集群与其他云服务网络互