已找到以下 94 条记录
AI智能搜索
产品选择
迁移中心 MGC
没有找到结果,请重新输入
产品选择
迁移中心 MGC
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 添加阶段/步骤 - 迁移中心 MGC

    添加阶段/步骤 您可以在工作流标准模板的迁移阶段/步骤,添加卡点,迁移阶段/步骤进行控制。 只有迁移阶段/步骤状态为等待中/暂停,才可以选择该阶段/步骤进行添加。迁移阶段/步骤处于运行中/完成状态时,无法添加。 如果上一阶段/步骤处于运行中/暂停/完成状态,该阶段/步骤只能选择添加后置阶段/步骤。

  • 概述 - 迁移中心 MGC

    准备工作:确保具备必要的账号以及账号满足权限要求。 安装Edge:下载并安装MgC服务所需的云边协同组件Edge。 资源采集:采集源端阿里云ECS主机的信息。 迁移准备:源端阿里云ECS主机进行配置检查、网络测试和迁移分组。 规格评估:评估并配置华为云目的端主机的规格。 工作流创建:创建并配置迁移工作流并启动迁移。

  • 创建应用 - 迁移中心 MGC

    创建应用 通过创建应用,并将采集到的主机资源添加到应用中,主机资源进行功能分组,用于后续进行规格评估和创建迁移工作流。 操作步骤 登录迁移中心管理控制台。 单击左侧导航栏的“调研>应用管理”,进入应用管理页面。在页面左上角的当前项目下拉列表中选择迁移项目。 单击应用框中的“新建应用”按钮,弹出新建应用窗口。

  • 增量数据迁移 - 迁移中心 MGC

    在模板中添加不需要迁移的表信息,然后上传至MgC。 按表筛选 下载CSV格式的模板。 下载后用记事本打开该CSV模板文件。 注意: 请不要使用ExcelCSV模板文件进行编辑,通过Excel编辑并保存的模板文件无法被MgC识别。 保留CSV文件中的第一行不变,从第二行开始,每行填写一个表的迁移信息,格式为“{MC项目名}

  • 连接迁移中心 - 迁移中心 MGC

    进行资源采集和执行迁移工作流任务。 连接成功后,您可以在迁移中心控制台进行以下操作: 创建资源采集任务:通过公网发现源端多种类型资源,支持主机、容器、对象存储和数据库等资源进行深度采集。 创建主机迁移工作流:进行主机迁移,MgC提供高灵活、可定制的迁移工作流,根据采集的源端主机性能数据,推荐最合适的华为云主机规格。

  • 采集主机性能 - 迁移中心 MGC

    采集主机性能 迁移中心支持主机资源进行性能数据采集,获取源端主机的CPU、内存负载、磁盘IOPS,内网出入流量,网络出入包速率,网络连接数等性能信息。在后续进行目的端规格评估时,可以根据采集到的源端主机实际性能负载推荐目的端主机CPU核数、内存大小等性能规格。 本文介绍在应用详

  • 迁移准备度检查失败,失败原因:用户名和密码错误 - 迁移中心 MGC

    迁移准备度检查失败,失败原因:用户名和密码错误 问题描述 主机进行迁移准备度检查时,检查失败,提示:用户名和密码错误。 问题分析 出现该问题的原因可能是您所选凭证的用户名和密码与源端主机不匹配。 解决方法 核对凭证信息。 请仔细检查凭证中的用户名和密码是否输入正确,包括大小写和特殊字符。

  • 采集主机性能 - 迁移中心 MGC

    采集主机性能 迁移中心支持主机资源进行性能数据采集,获取源端主机的CPU、内存负载、磁盘IOPS,内网出入流量,网络出入包速率,网络连接数等性能信息。在后续进行目的端规格评估时,可以根据采集到的源端主机实际性能负载推荐目的端主机CPU核数、内存大小等性能规格。 使用须知 开始采集后,默认每5分钟进行一次数据采集。

  • 使用须知 - 迁移中心 MGC

    从而使该字段所在的表元数据迁移失败。 注意事项 CSV模板文件编辑 当使用MgC提供的CSV模板文件进行数据筛选时,请不要使用ExcelCSV模板文件进行编辑,通过Excel编辑并保存的模板文件无法被MgC识别。 DLI队列连接选择 元数据迁移和数据迁移需要使用不同的DLI队列连接,元数据迁移需要使用DLI

  • 存储类型介绍 - 迁移中心 MGC

    存储类型介绍 各云厂商的对象存储服务针对用户业务存储性能、成本的不同诉求,将对象的存储级别进行了区分,区分的普遍依据是对象的访问频度、访问时延、最低存储时间、最低存储单元、数据可靠性、数据可用性等。根据以上依据,华为云OBS提供了以下四种存储类型: 标准存储 访问时延低和吞吐量

  • 大数据校验概述 - 迁移中心 MGC

    指定日期校验 Doris 全量校验 日级增量校验 小时级增量校验 Hbase 全量校验 指定时间校验 ClickHouse 全量校验 阿里云云数据库ClickHouse 全量校验 CloudTable(HBase) 全量校验 指定时间校验 CloudTable(ClickHouse)

  • 责任共担 - 迁移中心 MGC

    维运营安全,以及更广义的安全合规遵从。 租户:负责云服务内部的安全,安全地使用云。华为云租户的安全责任在于使用的 IaaS、PaaS 和 SaaS 类云服务内部的安全以及租户定制配置进行安全有效的管理,包括但不限于虚拟网络、虚拟主机和访客虚拟机的操作系统,虚拟防火墙、API

  • 自定义参数说明 - 迁移中心 MGC

    自定义参数说明 在创建数据湖探索 DLI校验任务时,支持的自定义参数及说明参见表1。 表1 DLI校验任务支持的自定义参数说明 参数名称 默认值 描述 mgc.mc2dli.table.partition.enable true DLI表分区为空或者分区不存在时需要通过查询DLI的元数据去判断分区存不存在。

  • 元数据增量感知 - 迁移中心 MGC

    在模板中添加不需要迁移的表信息,然后上传至MgC。 按表筛选 下载CSV格式的模板。 下载后用记事本打开该CSV模板文件。 注意: 请不要使用ExcelCSV模板文件进行编辑,通过Excel编辑并保存的模板文件无法被MgC识别。 保留CSV文件中的第一行不变,从第二行开始,每行填写一个表的迁移信息,格式为“{MC项目名}

  • 元数据全量迁移 - 迁移中心 MGC

    在模板中添加不需要迁移的表信息,然后上传至MgC。 按表筛选 下载CSV格式的模板。 下载后用记事本打开该CSV模板文件。 注意: 请不要使用ExcelCSV模板文件进行编辑,通过Excel编辑并保存的模板文件无法被MgC识别。 保留CSV文件中的第一行不变,从第二行开始,每行填写一个表的迁移信息,格式为“{MC项目名}

  • 创建执行机连接 - 迁移中心 MGC

    创建执行机连接 执行机是获取数据的任务执行单元,需要分别与源端和目的端的执行机建立连接,然后执行数据统计,统计结果将用于数据校验。 以下大数据组件需要通过创建执行机连接来进行数据校验: Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据)

  • 自定义参数说明 - 迁移中心 MGC

    自定义参数说明 在目的端配置中,支持配置的自定义参数及说明请参见表1和conf参数说明。 表1 支持的自定义参数说明 参数名称 取值范围 说明 是否必填 spark.dli.metaAccess.enable - 填写true。 是 spark.dli.job.agency.name

  • 本地发现与采集 - 迁移中心 MGC

    资源。 如果后续需要对主机进行迁移,建议主机进行深度采集。 为确保采集过程具备充分的系统访问权限,从而能够获取到必要的信息和数据。主机深度采集的凭证要求如下: Linux主机进行深度采集时,请添加Root账号和密码作为采集凭证。 Windows主机进行深度采集时,请添加A

  • 创建血缘采集任务 - 迁移中心 MGC

    创建血缘采集任务 前提条件 已完成元数据采集。 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“调研>大数据血缘”,进入大数据血缘页面。在页面左上角的当前项目下拉列表中选择迁移项目。 在血缘采集区域,单击“创建任务”,弹出创建血缘采集任务窗口。 根据实际作业类型,选择文件类型并配置对应参数。

  • DeltaLake(有元数据)迁移至MRS DeltaLake数据校验 - 迁移中心 MGC

    DeltaLake(有元数据)迁移至MRS DeltaLake数据校验 本文主要介绍将自建DeltaLake环境上的数据迁移至华为云MRS DeltaLake之后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 DeltaLake存在元数据,可通过数据湖元数据同步方式进行数据采集。