检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
例如:NFS(Network File System)、Common Internet File System、NAS(Network Attached Storage)等系统中的文件。 应用与硬件绑定 不支持迁移含有与硬件绑定的应用的系统。
步骤五:创建主机迁移工作流 当完成所有准备工作和步骤一~步骤四的操作后,即可前往迁移工作流界面,创建主机迁移工作流。 父主题: 阿里云主机迁移至华为云
图3 创建公网发现任务 深度采集 通过公网发现任务,获取AWS容器资源列表后,即可对列表中的容器资源进行深度采集,以获取容器的详细规格、节点配置、持久卷配置以及网络策略等详细信息。具体操作步骤请参考容器深度采集。
元数据全量迁移 将源端数据库中的所有元数据迁移到华为云数据湖探索(DLI) 。 元数据迁移不支持事务表(即DDL中带有transactional=true字段的表)。 前提条件 已完成所有准备工作。 已创建源端连接。 已创建目的端连接。 操作步骤 登录迁移中心控制台。 在左侧导航栏选择
创建目的端连接 创建目的端连接是为了将源端数据写入到华为云DLI。 使用须知 元数据迁移:只需要配置一条连接到DLI SQL队列的连接。 数据迁移:需要配置两条连接,分别为连接到DLI SQL队列的连接和连接到DLI通用队列的连接。 前提条件 已完成准备工作。 操作步骤 登录迁移中心控制台
项目管理 操作场景 通过创建独立的项目,可以将不同的操作场景进行区分和隔离,从而实现更好的组织管理和资源分配。例如:可为阿里云迁移至华为云创建一个新的项目,里面将包含阿里云平台的主机、数据库、组件等信息。 创建项目 登录迁移中心管理控制台。 单击左侧导航栏的“配置管理”,进入配置管理页面
查看元数据 您可以通过创建采集任务、手动添加、导入模板等方式获取元数据库表清单。 通过采集任务获取元数据 创建采集任务的方法请参考创建并运行元数据同步任务。当元数据同步任务的实例状态为“已完成”且采集结果有数值时,在库表清单页签可以查看采集到的元数据列表。 手动添加数据表 登录迁移中心管理控制台
RabbitMQ采集器(app-discovery-rabbitmq) 通过连接到RabbitMQ管理插件,获取RabbitMQ节点列表、版本、队列以及队列中的消费者endpoint等信息。参数配置说明参见表1。 表1 RabbitMQ采集器参数配置信息 参数 必选 配置说明 output_path
资源采集常见问题和处理方法 资源采集相关问题与处理方法参下表。 问题 处理建议 该任务名已存在。 请重新输入任务名。 创建采集任务失败。 请联系技术支持人员或提交工单。 采集项所关联的采集任务不存在。 请为采集项重新关联采集任务。 采集项重复。 请检查采集任务中是否存在相同的采集项
升级Windows版本 问题描述 在迁移中心的设备列表中,当设备的版本列出现“可升级”提示时,代表当前安装的Edge并非最新版本,为了不影响功能的正常使用,此时需要您将Edge升级为最新版本。 操作步骤 在安装旧版本Edge的Windows主机,登录迁移中心管理控制台。 在左侧导航栏单击
升级Linux版本 问题描述 在迁移中心的设备列表中,当设备的版本列出现“可升级”提示时,代表当前安装的Edge并非最新版本,为了不影响功能的正常使用,此时需要您将Edge升级为最新版本。 操作步骤 在安装旧版本Edge的Linux主机,登录迁移中心管理控制台。 在左侧导航栏单击“
导入应用关联文件 将您源端配置管理数据库中的应用关联信息,填入导入模板表格中,再将表格导入迁移中心,分析出应用间的依赖及关联关系。 操作步骤 登录迁移中心管理控制台。 单击左侧导航栏的“调研>资源采集”,进入资源采集页面。在页面左上角的当前项目下拉列表中选择迁移项目。 单击任务框中的
应用配置采集器(app-discovery-application-config) 通过应用配置文件,采集应用配置信息。参数配置说明参见表1。 表1 应用配置采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-application-config-xxx.csv
Nginx配置文件采集器(app-discovery-nginx) 根据Nginx下的config文件,解析获取Nginx的跳转信息。参数配置说明参见表1。 表1 Nginx配置文件采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-nginx-xxx.csv
Delta 数据量较大时,如何优化校验任务? 本文介绍当源端Delta数据量较大(如超过10000张表)时,如何使用MgC大数据校验功能进行一致性校验的方法。 操作步骤 参考创建元数据连接,创建第一个Delta元数据连接。 使用步骤1.创建的第一个元数据连接,创建元数据同步任务,将源端的元数据同步至迁移中心
K8S conntrack采集器(app-discovery-k8s-conntrack) 通过conntrack命令采集k8s集群的应用关联拓扑。参数配置说明参见表1。 表1 k8s conntrack采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果
自定义参数说明 在创建数据湖探索 DLI校验任务时,支持的自定义参数及说明参见表1。 表1 DLI校验任务支持的自定义参数说明 参数名称 默认值 描述 mgc.mc2dli.table.partition.enable true DLI表分区为空或者分区不存在时需要通过查询DLI的元数据去判断分区存不存在
MySQL-generallog采集器(app-discovery-mysql-generallog) 通过MySQL的general-log日志,采集客户端host和port信息。参数配置说明参见表1。 表1 MySQL-generallog采集器参数配置说明 参数 必选 配置说明
Kafka采集器(app-discovery-kafka) 通过连接到Kafka节点,获取Kafka节点IP、版本、消费者信息等。参数配置说明参见表1。 表1 Kafka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-kafka-xxx.csv
创建元数据连接 创建元数据来源类型的连接,获取源端大数据库表清单。 目前支持的连接类型,参见表1。 表1 支持的元数据连接类型 类别 连接类型 大数据组件 Hive Metastore Doris HBase ClickHouse Delta Lake(有元数据) Delta Lake