-
配置MongoDB连接 - 云数据迁移 CDM
连接本地MongoDB数据库时,相关参数如表1所示。 作业运行中禁止修改密码或者更换用户。在作业运行过程中修改密码或者更换用户,密码不会立即生效且作业会运行失败。 表1 MongoDB连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。
-
计费说明 - 云数据迁移 CDM
的费用按“折扣套餐”计费。 各折扣套餐包在不同规格下的具体价格,请参见产品价格详情。 变更配置 在开通CDM时有4种集群规格供您选择,您可根据业务需要选择合适的实例规格。 当集群创建成功后,无法对集群进行规格变更,不过您可以通过删除集群后重建集群,实现变更。 续费 资源包到期后,
-
权限及授权项说明 - 云数据迁移 CDM
支持IAM项目和企业项目,表示此授权项对应的自定义策略,可以在IAM和企业管理两个服务中给用户组授权并生效。如果仅支持IAM项目,不支持企业项目,表示仅能在IAM中给用户组授权并生效,如果在企业管理中授权,则该自定义策略不生效。 “√”表示支持,“x”表示暂不支持。 CDM的支持
-
配置HDFS连接 - 云数据迁移 CDM
Hadoop上的HDFS数据源时,相关参数如表3所示。 表3 Apache HDFS连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 hadoop_hdfs_link URI 表示NameNode URI地址。可以填写为
-
配置HBase连接 - 云数据迁移 CDM
FusionInsight HBase 连接FusionInsight HD上的HBase数据源时,相关参数如表2所示。 表2 FusionInsight HBase连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 FI_hbase_link Manager
-
执行Spark SQL写入Hudi失败怎么办? - 云数据迁移 CDM
报错:hoodie table path not found 原因分析 表在metastore中存在,但不是Huid表,或者表在metastore中存在,但是表目录不存在,根因是在表目录下没有.hoodie目录。可能删表的时候只删了文件而没有drop table。 解决方法 在DataArts
-
查看集群基本信息/修改集群配置 - 云数据迁移 CDM
图1 集群列表 “创建来源”列仅通过DataArts Studio服务进入数据集成界面可以看到。 单击集群名称,可查看集群的基本信息。 图2 CDM集群的配置信息 修改集群配置 登录CDM管理控制台。单击左侧导航上的“集群管理”,进入集群管理界面。 图3 集群列表 “创建来源”列仅通过DataArts
-
区域和可用区 - 云数据迁移 CDM
用户跨AZ构建高可用性系统的需求。 图1阐明了区域和可用区之间的关系。 图1 区域和可用区 目前,华为云已在全球多个地域开放云服务,您可以根据需求选择适合自己的区域和可用区。更多信息请参见华为云全球站点。 如何选择区域? 选择区域时,您需要考虑以下几个因素: 地理位置 一般情况下
-
Elasticsearch整库迁移到云搜索服务 - 云数据迁移 CDM
Elasticsearch整库迁移到云搜索服务 操作场景 云搜索服务(Cloud Search Service)为用户提供结构化、非结构化文本的多条件检索、统计、报表,本章节介绍如何通过CDM将本地Elasticsearch整库迁移到云搜索服务中,流程如下: 创建CDM集群并绑定EIP 创建云搜索服务连接
-
Elasticsearch整库迁移到云搜索服务 - 云数据迁移 CDM
Elasticsearch整库迁移到云搜索服务 操作场景 云搜索服务(Cloud Search Service)为用户提供结构化、非结构化文本的多条件检索、统计、报表,本章节介绍如何通过CDM将本地Elasticsearch整库迁移到云搜索服务中,流程如下: 创建CDM集群并绑定EIP 创建云搜索服务连接
-
目的端为OBS - 云数据迁移 CDM
FILE”时才有该参数。在迁移表到CSV文件时,CDM默认是不迁移表的标题行,如果该参数选择“是”,CDM在才会将表的标题行数据写入文件。 toJobConfig.filePrefix 否 String 自定义文件名前缀,支持任意自定义名称,也支持表名宏时间宏版本宏。例如:${t
-
CDM有哪些优势? - 云数据迁移 CDM
Migration,简称CDM)服务基于分布式计算框架,利用并行化处理技术,使用CDM迁移数据的优势如表1所示。 表1 CDM优势 优势项 用户自行开发 CDM 易使用 自行准备服务器资源,安装配置必要的软件并进行配置,等待时间长。 程序在读写两端会根据数据源类型,使用不同的访问接口,一般是数据源提供的对外接口,例如
-
配置HDFS目的端参数 - 云数据迁移 CDM
world,使用包围符后,导出到CSV文件的时候数据为"hello,world"。 否 首行为标题行 在迁移表到CSV文件时,CDM默认是不迁移表的标题行,如果该参数选择“是”,CDM在才会将表的标题行数据写入文件。 否 写入到临时文件 将二进制文件先写入到临时文件(临时文件以“.tmp”作
-
产品优势 - 云数据迁移 CDM
从源端读取数据再写入目的端,相对这样传统的做法,CDM的优势如表1所示。 表1 CDM优势 优势项 用户自行开发 CDM 易使用 自行准备服务器资源,安装配置必要的软件并进行配置,等待时间长。 程序在读写两端会根据数据源类型,使用不同的访问接口。一般是数据源提供的对外接口,例如
-
配置Hive源端参数 - 云数据迁移 CDM
作业中源连接为Hive连接时,源端作业参数如表1所示。 表1 Hive作为源端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 数据库名称 输入或选择数据库名称。单击输入框后面的按钮可进入数据库选择界面。 default 表名 输入或选择Hive表名。单击输入框后面的按钮可进入表的选择界面。 该参
-
场景介绍 - 云数据迁移 CDM
0%。 场景任务 根据客户原始数据采集处理系统中已有的H公司的数据(例如:贸易详单数据和基础信息数据),基于CDM+OBS+DLI完成贸易统计分析。 图1 场景方案 DLI创建OBS外表,对OBS表数据存储格式有所要求: 使用DataSource语法创建OBS表时,支持orc,p
-
删除作业 - 云数据迁移 CDM
job_name} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID cluster_id 是 String 集群ID job_name 是 String 作业名称 请求参数 表2 请求Header参数
-
关系数据库连接 - 云数据迁移 CDM
连接属性,指定数据源的JDBC连接器的属性,参考对应数据库的JDBC连接器说明文档进行配置。 linkConfig.version 否 枚举 创建Oracle连接时才有该参数,根据您Oracle数据库的版本来选择。 HIGH_VERSION:当您的Oracle数据库版本高于12.1时,选择该值。 MED_VERSION:当您的Oracle数据库版本为12
-
上传存量数据 - 云数据迁移 CDM
端口:OBS服务器的端口,例如“443”。 OBS桶类型:根据实际情况下拉选择即可。 访问标识(AK)、密钥(SK):访问OBS数据库的AK、SK。可在管理控制台单击用户名,选择“我的凭证 > 访问密钥”后获取。 单击“保存”,系统回到连接管理界面。 选择“表/文件迁移 > 新建作业”,创建迁移H公司贸易数据到OBS的作业,
-
删除连接 - 云数据迁移 CDM
_name} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID cluster_id 是 String 集群ID link_name 是 String 需要删除的连接名 请求参数 表2 请求Header参数