检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
主机迁移相关最佳实践 主机迁移网络要求和配置 线下主机迁移上云 阿里云主机迁移至华为云 主机一站式跨可用区迁移 华为云主机跨可用区迁移 将主机迁移至Flexus云服务器X实例(原云耀云服务器X实例) 迁移后主机私有IP保持不变 批量修改与还原源端Linux主机的Host配置 批量
已在MgC控制台创建迁移项目。 使用须知 源端主机需要对安装MgC Agent的Windows主机开放指定端口: Windows开放5985端口。 Linux开放22端口。 如果源端是Windows主机,需要开启WinRM远程访问,并与安装MgC Agent的主机建立连接,方法请参
行迁移。该时间段以外,则迁移任务暂停。 - 工作流配置完成后,单击“下一步:确认并创建”按钮,进入确认并创建页面。 确认配置信息无误后,单击“确认创建工作流”,弹出启动工作流窗口,此时工作流已创建完成。 如果您希望立即开始迁移,则单击“确认”按钮,立即运行工作流。 如果您需要在标
默认密钥: 成功授权EVS访问KMS,系统会创建默认密钥“evs/default”。 自定义密钥: 即您已有的密钥或者新创建密钥,创建方式请参见创建密钥。 输入KMS密钥ID 输入来自其他用户的共享密钥ID,请确保密钥位于目的端区域。共享方式请参见创建密钥授权。 高级设置 迁移后是否开机
策略。 前提条件 已提前创建目的端对象桶或弹性文件系统。 已提前创建迁移集群。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择创建的应用迁移项目。 在左侧导航栏选择“迁移实施>迁移工作流”,进入迁移工作流页面。 单击页面右上角的“创建迁移工作流”按钮,进入选择模板页面。
阿里云云数据库ClickHouse 在创建Hive Metastore连接前,需要先获取连接Hive Metastore的IP地址和端口号。 在创建MaxCompute连接前,需要先获取MaxCompute服务所在地域的Endpoint信息。 在创建Doris连接前,需要先获取Doris集群部署的服务器IP地址和端口。
数标准相同的分组。 在创建用于MaxCompute迁移到DLI数据校验的表组时,建议先创建count、sum、allsum等基本校验标准的表组,在确保基本校验任务的校验标准已达标,并且源端和目的端数据量一致后,再创建content校验标准的表组进行详细的内容校验,以确保的目的端数据与源数据在数据量和内容上一致。
数标准相同的分组。 在创建用于MaxCompute迁移到DLI数据校验的表组时,建议先创建count、sum、allsum等基本校验标准的表组,在确保基本校验任务的校验标准已达标,并且源端和目的端数据量一致后,再创建content校验标准的表组进行详细的内容校验,以确保的目的端数据与源数据在数据量和内容上一致。
默认密钥: 成功授权EVS访问KMS,系统会创建默认密钥“evs/default”。 自定义密钥: 即您已有的密钥或者新创建密钥,创建方式请参见创建密钥。 输入KMS密钥ID 输入来自其他用户的共享密钥ID,请确保密钥位于目的端区域。共享方式请参见创建密钥授权。 须知: 该功能不适用于已绑定目的端的主机。
阿里云云数据库ClickHouse 在创建Hive Metastore连接前,需要先获取连接Hive Metastore的IP地址和端口号。 在创建MaxCompute连接前,需要先获取MaxCompute服务所在地域的Endpoint信息。 在创建Doris连接前,需要先获取Doris集群部署的服务器IP地址和端口。
元数据。 前提条件 已创建元数据连接。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择创建的大数据迁移项目。 在左侧导航栏选择“调研>大数据血缘”,进入大数据血缘页面。 在元数据采集区域,单击“创建任务 > 元数据同步”按钮,右侧弹出创建任务-元数据同步窗口。
登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择在完成准备工作时创建的大数据迁移项目。 在左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。 单击页面右上角的“创建迁移任务”按钮,右侧弹出创建迁移任务窗口。 源端组件选择“MaxCompute”,目的端组件选择“数据湖探索
前提条件 已完成所有准备工作。 已创建源端连接。 已创建目的端连接。 开始迁移前,需要联系技术支持人员,将您添加到允许jar程序访问DLI元数据功能的白名单中。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择在完成准备工作时创建的大数据迁移项目。 在左侧导航栏选
已完成所有准备工作。 已创建源端连接。 已创建目的端连接。 已最少完成一次全量数据迁移。 开始迁移前,需要联系技术支持人员,将您添加到允许jar程序访问DLI元数据功能的白名单中。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择在完成准备工作时创建的大数据迁移项目。
选择待迁移资源所关联的应用。 迁移设置 区域 选择待迁移可用区所在Region,与创建的应用配置保持一致。 目的可用区 选择要迁移到目的端可用区,与创建的应用配置保持一致。 网络设置 当前只支持“保留源端配置”。 目的虚拟机创建策略 立即创建 工作流立即开始进行源端备份,源端各自独立备份完成后,立即开始生成镜像和目的端主机。
创建并运行元数据同步任务 利用元数据连接,创建元数据同步任务,将源端数据库的库、表、字段信息同步至迁移中心。 支持创建元数据同步任务的连接类型如下: Hive Metastore连接 Doris连接 HBase连接 ClickHouse连接 Hudi(有元数据)连接 Hudi(无元数据)连接
选择待迁移资源所关联的应用。 迁移设置 区域 选择待迁移可用区所在Region,与创建的应用配置保持一致。 目的可用区 选择要迁移到目的端可用区,与创建的应用配置保持一致。 网络设置 当前只支持“保留源端配置”。 目的虚拟机创建策略 立即创建 工作流立即开始进行源端备份,源端各自独立备份完成后,立即开始生成镜像和目的端主机。
限速的数值范围:0~1048576 MB/s 。 最多可以创建5条记录。 时区时间以目的端Region的当地时间为准。 工作流配置完成后,单击“下一步:确认并创建”按钮,进入确认并创建页面。 确认配置信息无误后,单击“确认创建工作流”,弹出启动工作流窗口,此时工作流已创建完成。 如果您希望立即开始迁移,则单击“确认”按钮,立即运行工作流。
脚本,支持一键式运行和实时监控迁移进展。 支持区域: 全部 创建主机迁移工作流 线下主机迁移上云 主机一站式跨可用区迁移 创建存储迁移工作流 大数据数据迁移 支持多种大数据组件的元数据迁移,元数据增量感知,数据全量及增量迁移。 支持区域: 全部 创建源端连接 创建目的端连接 迁移实施
已完成所有准备工作。 已创建源端连接。 已创建目的端连接。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择在完成准备工作时创建的大数据迁移项目。 在左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。 单击页面右上角的“创建迁移任务”按钮,右侧弹出创建迁移任务窗口。