检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
您可以在任务列表页面,查看任务状态和详情。 发现任务状态为成功后,根据不同资源类型,进行后续操作。 主机资源需要先完成深度采集或源端迁移准备度检查,再进行迁移方案设计或迁移方案配置。 容器资源需要先完成深度采集,再进行迁移方案设计。 中间件、数据库、存储等资源可直接进行迁移方案设计。支持对AWS RDS(包括MySQ
解析数据:MgC将返回的数据进行解析,提取关键信息,如节点数、虚拟机核数等。然后将这些关键信息保存到数据库中,为后续分析和迁移提供支持。 深度采集原理 MgC对AWS 容器资源进行深度采集的原理图,如图2所示。 图2 AWS容器深度采集原理图 对AWS容器资源进行深度采集的过程详细说明如下:
立即运行:如果需要立即运行迁移任务,可以勾选“保存后立即运行”,然后单击“保存”按钮,会在任务管理列表中生成一条元数据增量感知任务并自动开始执行迁移。 手动运行:如果需要后续手动启动迁移任务,则只需单击“保存”按钮,在任务管理列表中生成一条元数据增量感知任务。在需要启动迁移时,单击操作列的“运行”,手动启动迁移。
选择要发现的源端云平台区域,支持多选。 是 资源类型 在下拉列表勾选主机资源。 是 应用 选择采集到的资源要加入的应用,通过应用可以将资源进行分组管理。如果下拉列表中无应用,按如下步骤创建: 单击“新建应用”,输入自定义的应用名称和描述;选择业务场景和使用场景;目的端区域选择目的端所在区域。
发现任务状态为成功后,根据不同资源类型,进行后续操作。 主机资源需要先完成深度采集或源端迁移准备度检查,再进行迁移方案设计或迁移方案配置。 容器资源需要完成深度采集后,才可以进行迁移方案设计。 中间件、数据库、存储等资源可直接进行迁移方案设计。支持对AWS RDS(包括MyS
14:50(现在)的增量元数据。 MaxCompute参数(可选) 非必填参数,一般为空。如有需要可参考MaxCompute参数文档进行配置。 数据范围 按库筛选 即按数据库进行筛选,在数据库参数框中输入需要增量待迁移的数据库名称。单击“添加数据库”,可以新增数据库,最多支持同时添加10个数据库。
S计费说明或LTS价格计算器。 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“部署>迁移集群”,进入迁移集群页面。 单击页面右上角的“创建集群”按钮,进入创建集群页面。 如果是首次创建迁移集群,需要您同意华为云账号进行相关的委托授权。委托权限所包含的细粒度权限请前往委托权限说明查看。
操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择创建的应用迁移项目。 在左侧导航栏选择“资源准备>迁移集群”,进入迁移集群页面。 单击页面右上角的“创建集群”按钮,进入创建集群页面。 如果是首次创建迁移集群,需要您同意华为云账号进行相关的委托授权。单击,可以查看委托权限所包含的细粒度权限。
table",需要您手动删除DLI中的分区数据,然后再进行迁移。 前提条件 已完成所有准备工作。 已创建源端连接。 已创建目的端连接。 开始迁移前,需要联系技术支持人员,将您添加到允许jar程序访问DLI元数据功能的白名单中。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择在完成准备工作时创建的大数据迁移项目。
单击列表上方的“导出”按钮,系统开始导出任务执行结果。通过列表上方的搜索框可以对任务执行结果进行过滤,如有过滤,则只导出过滤后的数据。 图1 导出执行结果 单击“导出管理”按钮,右侧弹出导出管理窗口。 当导出进度为导出成功后,单击操作列的“下载”,可以将导出结果下载到本地。 图2 下载导出结果
单击列表上方的“导出”按钮,系统开始导出任务执行结果。通过列表上方的搜索框可以对任务执行结果进行过滤,如有过滤,则只导出过滤后的数据。 图1 导出执行结果 单击“导出管理”按钮,右侧弹出导出管理窗口。 当导出进度为导出成功后,单击操作列的“下载”,可以将导出结果下载到本地。 图2 下载导出结果
段/步骤。 确定工作流步骤后,单击“运行”按钮,开始迁移。 在工作流步骤页签可以监控迁移进展。如果迁移步骤中包含手动操作,需要您进行手动确认后,才能进行后续步骤。 在主机页签,可以查看每台主机的迁移状态。 父主题: 主机迁移相关最佳实践
(可选)步骤四:绑定已有目的端 如果您已经在华为云创建了目的端主机,可以将源端主机与目的端主机进行绑定。绑定后, 迁移工作流将使用所绑定的目的端作为迁移的目的端。绑定已有目的端的主机,无需进行评估推荐,请直接创建主机迁移工作流。 如果您不进行目的端绑定,请执行步骤五:规格评估操作。 绑定的目的端主机有以下要求:
过SSH协议进行连接。 SSH访问权限设置 SSH服务配置:确保所有源端主机上的SSH服务已启用并运行正常。大多数Linux服务器发行版默认启用SSH服务。 SSH密码认证:确保所有源端主机的SSH服务已配置为接受密码认证,以便脚本可以使用CSV文件中提供的密码进行自动登录。 脚本执行机环境配置
对主机深度采集的凭证要求如下: 对Linux主机进行深度采集时,请添加Root账号和密码作为采集凭证。 对Windows主机进行深度采集时,请添加Administrator账号和密码作为采集凭证。 创建内网采集任务 登录迁移中心管理控制台。 单击左侧导航栏的“调研>资源采集”,进
对主机深度采集的凭证要求如下: 对Linux主机进行深度采集时,请添加Root账号和密码作为采集凭证。 对Windows主机进行深度采集时,请添加Administrator账号和密码作为采集凭证。 创建内网采集任务 登录迁移中心管理控制台。 单击左侧导航栏的“调研>资源采集”,进
更多”进行查看。 说明(可选) 您可以输入用于区分表组的说明。 参数配置完成后,单击“确认”按钮,创建表组完成。在表组列表,可以查看创建的表组信息。 表组创建完成后,即可导入数据表并加入表组。 导入数据表并加入表组 在表管理页面,选择库表清单页签。 单击列表上方的“表管理 > 导入数据表”按钮,弹出导入数据表窗口。
更多”进行查看。 说明(可选) 您可以输入用于区分表组的说明。 参数配置完成后,单击“确认”按钮,创建表组完成。在表组列表,可以查看创建的表组信息。 表组创建完成后,即可导入数据表并加入表组。 导入数据表并加入表组 在表管理页面,选择库表清单页签。 单击列表上方的“表管理 > 导入数据表”按钮,弹出导入数据表窗口。
jar' 注意: 参数值需要根据实际环境目录和Delta Lake 的版本进行替换。 参数配置完成后,单击“确认”按钮,创建数据湖元数据同步任务完成。 单击“采集任务”,进入元数据采集页面。在任务管理页签,可以查看已创建的数据湖元数据同步任务列表以及参数配置信息。单击操作列的“更多>修改”,可以修改任务参数配置。
已创建Delta Lake(有元数据)元数据连接。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择创建的大数据迁移项目。 在左侧导航栏选择“调研>迁移准备”,进入迁移准备页面。 选择元数据管理,单击创建数据湖元数据同步任务按钮,右侧弹出创建任务-数据湖元数据同步窗口。