检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
下的项目。 区域ID 输入需要校验的数据(即目的端数据)所在区域的代码。例如:ap-southeast-1。可以参考终端节点获取不同区域的区域代码信息。 项目ID 输入需要校验的数据所在的项目ID。获取方法请参考获取项目的名称和ID。 队列名称 输入需要进行校验的DLI队列名称。队列类型必须是SQL队列。
请勾选“所选凭证与登录迁移中心凭证相同”,系统将根据所选的区域,自动查询账号在该区域下的项目。 区域/项目 选择需要校验的数据所在区域/项目。 队列名称 输入需要进行校验的DLI队列名称。队列类型必须是SQL队列。 表2 CloudTable(ClickHouse)服务参数配置说明
输入登录Doris数据库的用户名、密码。 大数据-HBase 用户名/密钥 非安全集群需要上传core-site.xml,hdfs-site.xml,yarn-site.xml,mapred-site.xml和hbase-site.xml等5个文件。 安全集群需要上传core-site.xml,hdfs-site.xml,yarn-site
准备工作 华为账号准备 使用MgC之前,您需要拥有一个华为账号或一个可用于访问MgC的IAM用户,并获取账号/IAM用户的访问密钥(AK/SK)。获取方法请参考准备工作。 创建应用迁移项目 在MgC控制台为本次迁移创建独立的项目,方法请参见项目管理。 创建弹性文件系统 在目的端创
迁移实施 元数据全量迁移 元数据增量感知 全量数据迁移 增量数据迁移 父主题: 大数据数据迁移
创建迁移任务 元数据全量迁移 元数据增量感知 全量数据迁移 增量数据迁移 父主题: 大数据数据迁移(MaxCompute迁移到DLI)
通过创建独立的项目,可以将不同的操作场景进行区分和隔离,从而实现更好的组织管理和资源分配。创建方法请参考项目管理。 准备迁移工具Edge 在启用大数据校验功能前,需要先在源端环境中安装用于配合大数据校验的迁移工具Edge。大数据校验场景仅支持Linux版本的Edge,安装方法请参考下载并安装Linux版
在左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。 单击页面右上角的“连接管理”按钮,进入迁移准备页面。 首次使用大数据数据迁移功能时,需要先启用MgC Agent。单击页面左上角的“修改”或单击“选择迁移中心Agent”按钮,弹出选择迁移工具窗口。在下拉列表中,选择在完成准备工作时与迁移中心连接成功的MgC
项目管理 操作场景 通过创建独立的项目,可以将不同的操作场景进行区分和隔离,从而实现更好的组织管理和资源分配。例如:可为阿里云迁移至华为云创建一个新的项目,里面将包含阿里云平台的主机、数据库、组件等信息。 创建项目 登录迁移中心管理控制台。 单击左侧导航栏的“配置管理”,进入配置
可以连接外网,并检查是否能够访问MgC和IoTDA服务的域名,具体需要检查的域名请查看域名。 检查是否已开放MgC Agent(原Edge)需要的端口,所需端口请查看通信矩阵。 安全组的出方向规则中,需要包含8883端口。 操作系统为:CentOS 8.x 推荐规格不小于4U
的延迟。由于数据通常处于"冻结"状态,因此在需要访问时必须先进行数据恢复(即解冻)。解冻方式分为“标准解冻”和“加急解冻”,区别如下: 标准解冻:适用于对访问时间要求不是特别紧急的情况,解冻耗时大约需要3~5小时。 加急解冻:适用于需要快速访问数据的情况,解冻时间可以在1~5分钟内完成,但可能涉及额外的费用。
创建执行机连接 执行机是获取数据的任务执行单元,需要分别与源端和目的端的执行机建立连接,然后执行数据统计,统计结果将用于数据校验。 以下大数据组件需要通过创建执行机连接来进行数据校验: Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据)
在左侧导航栏选择“调研>迁移准备”,进入迁移准备页面。 选择元数据管理,在大数据血缘分析页签,单击“查看血缘”,进入血缘图页面。 图1 查看血缘 通过数据库名、表名筛选需要查看的血缘图。如果进行了大数据校验,还可以通过校验批次进行筛选。 父主题: 血缘采集
须知: 使用该功能前,需要前往SMN控制台创建主题。方法请参考创建SMN主题。 使用该功能可能产生少量费用,具体费用由SMN服务结算。详情请查看SMN计费说明。 数据筛选 统计范围 选择需要对哪段时间内的数据进行校验的。 OBS桶配置检查 - 如果需要将任务日志文件和内容校验结
单击“导入数据表”按钮,弹出导入数据表窗口。 根据实际需求,选择已创建的元数据连接类型。 单击“模板下载”,将导入模板下载到本地。打开导入模板,将需要添加的数据表对应参数填写到模板内。 每个模板最多支持导入10,000张表。 待导入的表必须属于同一个元数据来源。 元数据连接为Delta(
如果任务状态为“失败”,单击操作列的“查看”,可以查看采集失败的数据源,将鼠标放到数据源的采集状态上,可以查看失败原因。处理完失败原因后,需要删除该采集任务,重新导入文件进行采集。 当任务状态为“成功”时,您可以前往应用管理页面,查看应用关联分析结果。 父主题: 复杂项目
创建执行机连接 执行机是获取数据的任务执行单元,需要分别与源端和目的端的执行机建立连接,然后执行数据统计,统计结果将用于数据校验。 以下大数据组件需要通过创建执行机连接来进行数据校验: Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据)
数据血缘页面。在页面左上角的当前项目下拉列表中选择迁移项目。 在血缘采集区域,单击“查看血缘图”,进入血缘图页面。 通过数据库名、表名筛选需要查看的血缘图。如果进行了大数据校验,还可以通过校验批次进行筛选。 父主题: 血缘采集
单击“导入数据表”按钮,弹出导入数据表窗口。 根据实际需求,选择已创建的元数据连接类型。 单击“模板下载”,将导入模板下载到本地。打开导入模板,将需要添加的数据表对应参数填写到模板内。 每个模板最多支持导入10,000张表。 待导入的表必须属于同一个元数据来源。 元数据连接为Delta(
数据量较大时,对数成功率99.5%属于正常误差范围内。 HBase安全集群任务与非安全集群任务不能同时执行。HBase安全集群需要加载认证信息,非安全集群连接时需要清除安全集群的认证信息,因此不能同时执行。 当源端服务(包含但不限于Lindorm、HBase)因欠费被锁定时,虽然可以正