检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
当主机迁移进度进行到“全量复制”和“增量同步”步骤时,如图1所示,单击任务详情(即目的端名称),可以直接跳转到SMS控制台的对应迁移任务详情页面,查看迁移进度。 图1 主机迁移阶段 直接前往主机迁移服务 SMS控制台,查看每台主机的迁移进度详情。 父主题: 主机迁移工作流
查看应用关联分析结果 迁移中心会整理源端资源和应用间的关联关系,并且绘制技术架构图和应用依赖图,为后续迁移计划的制定和目的端架构设计提供帮助。 前提条件 已导入应用关联文件或导入工具采集结果。
分别创建源端执行机连接和目的端执行机连接,方法请参考创建执行机连接。 分别创建源端Delta统计任务和目的端Delta统计任务并执行,方法请参考创建统计任务并执行校验。
支持的源端、目的端组件 源端组件 目的端组件 Hive Hbase Doris MaxCompute ClickHouse Delta Lake Hudi Hive DLI MRS(Doris) MRS(Hbase) MRS(ClickHouse) CloudTable(ClickHouse
支持的源端、目的端组件 源端组件 目的端组件 Hive Hbase Doris MaxCompute ClickHouse Delta Lake Hudi Hive DLI MRS(Doris) MRS(Hbase) MRS(ClickHouse) CloudTable(ClickHouse
迁移完成后,手动在目的端创建相应的软链接。 父主题: SFS1.0迁移至SFS 3.0
未提前创建应用,单击“新建应用”,输入自定义的应用名称和描述;根据实际需求,选择业务场景、使用场景以及目的端区域,单击“创建”按钮,应用创建成功。 选择应用后,单击“确定”。在各资源的已关联应用列,查看资源所关联应用。 父主题: 资源采集
在进行ClickHouse数据校验时,如果源端阿里云的ClickHouse版本为21.8.15.7,目的端华为云的ClickHouse版本为23.3.2.37,由于这两个版本在处理IPv4和IPv6字段类型以及相关函数计算结果上存在差异,因此无法进行字段校验。
未提前创建应用,单击“新建应用”,输入自定义的应用名称和描述;根据实际需求,选择业务场景、使用场景以及目的端区域,单击“创建”按钮,应用创建成功。 选择应用后,单击“确定”。在各资源的已关联应用列,查看资源所关联应用。 父主题: 资源采集
数据采集架构 迁移中心(MgC)采集数据的方式主要包括以下两种: 利用MgC Agent远程在线采集 通过调用API在线采集云平台资源 利用MgC Agent远程在线采集 适用于公有云、私有云(如VMware、Hyper-V等虚拟化环境)以及数据中心(IDC)部署,或者以上部署方式的混合场景
在创建用于MaxCompute迁移到DLI数据校验的表组时,建议先创建count、sum、allsum等基本校验标准的表组,在确保基本校验任务的校验标准已达标,并且源端和目的端数据量一致后,再创建content校验标准的表组进行详细的内容校验,以确保的目的端数据与源数据在数据量和内容上一致
在创建用于MaxCompute迁移到DLI数据校验的表组时,建议先创建count、sum、allsum等基本校验标准的表组,在确保基本校验任务的校验标准已达标,并且源端和目的端数据量一致后,再创建content校验标准的表组进行详细的内容校验,以确保的目的端数据与源数据在数据量和内容上一致
准备工作 华为账号准备 使用MgC之前,您需要拥有一个华为账号或一个可用于访问MgC的IAM用户,并获取账号/IAM用户的访问密钥(AK/SK)。获取方法请参考准备工作。 创建应用迁移项目 在MgC控制台为本次迁移创建独立的项目,方法请参见项目管理。 创建弹性文件系统 在目的端创建相应的弹性文件系统
采集Azure容器AKS资源 在进行Azure Kubernetes Service(AKS)资源迁移前,通过MgC进行资源采集是关键步骤,它为后续迁移操作提供了必要的数据支持。本节介绍使用MgC采集AKS资源的基本原理、准备工作、账号权限要求以及具体的操作步骤,旨在帮助用户高效、
采集AWS容器资源 本节介绍使用MgC采集AWS 容器资源的基本原理、准备工作、账号权限要求以及具体的操作步骤,旨在帮助用户高效、准确地完成AWS 容器资源的数据采集工作。 公网发现原理 使用MgC通过公网发现AWS容器资源的原理图,如图1所示。 图1 采集AWS容器资源原理图 调用
输入目的端数据表在数据库中的存放路径。 分区信息(可选) 用户自定义。 是否分区表(可选) 根据实际需求,选择该表是否为分区表。 业务负责人(可选) 可以指定数据表所属业务的责任人。 分析责任人(可选) 可以指定数据表的分析责任人。 跨源表 根据实际需求设置。
输入目的端数据表在数据库中的存放路径。 分区信息(可选) 用户自定义。 是否分区表(可选) 根据实际需求,选择该表是否为分区表。 业务负责人(可选) 可以指定数据表所属业务的责任人。 分析责任人(可选) 可以指定数据表的分析责任人。 跨源表 根据实际需求设置。
购买资源 目的端规格配置完成后,无需切换服务,可以直接在迁移中心批量购买目的端资源。当前仅支持购买主机资源。主机迁移工作流支持自动购买主机资源,通过“购买列表”批量购买资源适用于部分主机需要重新部署的场景。通过购买列表成功购买的主机,将自动绑定为迁移目的端,可以使用主机工作流继续迁移
存储迁移成本调研 迁移中心 MgC提供了存储迁移成本评估功能,通过输入源端文件数量和大小、设定期望迁移时长等参数,系统会自动计算迁移所需的集群规格、网络带宽和迁移成本,并给出不同的迁移方案,用户可以根据项目需求和预算选择合适的迁移策略。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择迁移项目
创建并运行数据湖元数据同步任务 利用创建的Delta Lake元数据连接,将源端数据库的库、表、字段信息同步至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。 Delta Lake(无元数据)只能通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据