检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
X实例评估+手动购买+使用MgC工作流迁移上云 准备工作+步骤1~8+自行购买,并在步骤7绑定自行购买的X实例主机。 Flexus云服务器 X实例评估+自动购买+使用MgC工作流迁移上云 准备工作+步骤1~8 。 准备工作 华为账号准备: 使用MgC之前,您需要拥有一个华为账号或一个可用于访问
在列表中单击操作列的“修改”,根据表3,配置目的端文件存储信息。 表3 目的端文件存储参数配置说明 参数 说明 须知 源端路径 根据源端文件存储服务地址+路径的组合自动生成。 - 存储类型 目前只支持NAS_NFS_V3_MOUNT。 文件存储服务地址 产品类型选择通用文件系统时,输入目的端文件系统的挂载
“确认”即可完成注册。 连接迁移中心:安装并注册成功后,将Edge与迁移中心进行连接,连接方法请参考连接迁移中心。 迁移工具Edge不具备自动重启功能,严禁在任务执行期间重启Edge,以避免任务失败。 添加凭证 在迁移工具Edge上分别添加一条MaxCompute凭证(源端阿里云
不勾选,仅迁移Content-Type、Content-Encoding元数据。 清理集群 - 选择工作流是否创建清理集群步骤。 勾选,迁移工作流将自动创建清理集群步骤,您还可以继续配置是否删除NAT网关、安全组、VPCEP服务等。 不勾选,迁移工作流不创建清理集群步骤。 (可选)根据表5,配置高级选项。
源端服务器状态 不支持迁移处于“保留期”且为冻结状态的服务器。 目的端服务器 不支持已有目的端方式迁移。 采用按需计费方式创建目的端,且不支持自动切换为包周期计费模式,需要在迁移完成后自行切换计费模式。 共享文件系统 只支持迁移本地磁盘上的文件,不支持迁移共享文件系统。 例如:NFS(Network
源列表页面的主机页签。 单击列表上方的“添加资源”按钮,弹出添加主机窗口。 图1 添加主机 根据表1,填写相应参数后,单击“确认”,系统会自动检查凭证绑定状态和进行信息采集。 表1 添加主机参数说明 参数 说明 名称 用户自定义 采集设备 选择源端注册的Edge设备。 类型 主机实际系统类型
中均未找到符合要求的规格,则会报错提示。 匹配业务场景 以源端业务场景为基础,结合华为云最佳实践进行资源规格推荐。 系统将基于源端业务场景自动选择一系列性能要求相匹配的规格类型,并将这些类型根据“优先级设置”选项(价格优先或性能优先)进行排序,依次检索各类型下所有虚拟机规格,选出
采集器参数配置说明 K8S静态采集器(app-discovery-k8s) K8S conntrack采集器(app-discovery-k8s-conntrack) K8S pod网络采集器(app-discovery-k8s-pod-net) 进程与网络采集器(app-dis
则源端覆盖目的端文件夹; 说明: 对于空文件夹,覆盖策略与文件相同。 清理集群 - 选择工作流是否创建清理集群步骤。 勾选,迁移工作流将自动创建清理集群步骤,您还可以继续配置是否删除NAT网关、安全组、VPCEP服务等。 不勾选,迁移工作流不创建清理集群步骤。 (可选)根据表5,配置高级选项。
则源端覆盖目的端文件夹; 说明: 对于空文件夹,覆盖策略与文件相同。 清理集群 - 选择工作流是否创建清理集群步骤。 勾选,迁移工作流将自动创建清理集群步骤,您还可以继续配置是否删除NAT网关、安全组、VPCEP服务等。 不勾选,迁移工作流不创建清理集群步骤。 (可选)根据表5,配置高级选项。
创建源端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建源端连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据) Hudi(有元数据)
创建执行机连接 执行机是获取数据的任务执行单元,需要分别与源端和目的端的执行机建立连接,然后执行数据统计,统计结果将用于数据校验。 以下大数据组件需要通过创建执行机连接来进行数据校验: Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据)
配置rollback_hosts_win.ps1脚本 根据提供的脚本示例,结合实际情况,修改示例中的相关配置。 前提条件 已完成准备工作。 操作步骤 在执行脚本的主机上创建一个名为“rollback_hosts_win.ps1”的文件,然后将以下脚本示例的内容复制到文件中。 # Configuration
采集项列表 本节为您列出各类型采集方式所包含的采集项以及用途。 网段扫描 采集项 说明 作用 ip 主机IP 用于深度采集 port 主机端口 用于深度采集 osType 系统类型 用于深度采集 name 主机名称 用于深度采集 主机(含深度采集) 采集项 说明 作用 name 主机名称
MaxCompute迁移至MRS Hive数据校验 本文主要介绍将阿里云 MaxCompute数据迁移至华为云MRS Hive后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 准备工作 需要先在源端内网环境中安装用于配合数据校验的工具Edge并注册用户,方法请参见安装Linux版本的Edge工具。
配置update_hosts_win.ps1脚本 根据提供的脚本示例,结合实际情况,修改示例中的相关配置。 前提条件 已完成准备工作。 操作步骤 在执行脚本的主机上创建一个名为“update_hosts_lwin.ps1”的文件,然后将以下脚本示例的内容复制到文件中。 # Configuration
创建并运行数据湖元数据同步任务 利用创建的Delta Lake元数据连接,将源端数据库的库、表、字段信息同步至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。 Delta Lake(无元数据)只能通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。
工具概述 迁移工具Edge是一款用于配合迁移中心进行源端资源发现与采集的工具,同时Edge还提供了工作流模块,用于配合云端迁移工作流任务。 特性开关 Edge所包含的特性开关参见下表。 参数 说明 参数值 参数路径 config.httpclient.verifier 验证主机名
资源采集常见问题和处理方法 资源采集相关问题与处理方法参下表。 问题 处理建议 该任务名已存在。 请重新输入任务名。 创建采集任务失败。 请联系技术支持人员或提交工单。 采集项所关联的采集任务不存在。 请为采集项重新关联采集任务。 采集项重复。 请检查采集任务中是否存在相同的采集项,或联系技术支持人员。
配置rollback_hosts_linux.sh脚本 根据提供的脚本示例,结合实际情况,修改示例中的相关配置。 前提条件 已完成准备工作。 操作步骤 在执行脚本的主机上创建一个名为“rollback_hosts_linux.sh”的文件,然后将以下脚本示例的内容复制到文件中。如