已找到以下 362 条记录
AI智能搜索
产品选择
迁移中心 MGC
没有找到结果,请重新输入
产品选择
迁移中心 MGC
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 准备工作 - 迁移中心 MGC

    准备工作 使用大数据校验功能前,请务必先完成以下必要准备工作。 创建项目 通过创建独立项目,可以将不同操作场景进行区分和隔离,从而实现更好组织管理和资源分配。创建方法请参考项目管理。 准备迁移工具Edge 启用大数据校验功能前,需要先在源端环境中安装用于配合大数据校验的迁

  • 准备工作 - 迁移中心 MGC

    准备工作 使用大数据校验功能前,请务必先完成以下必要准备工作。 创建大数据迁移项目 通过创建独立项目,可以将不同操作场景进行区分和隔离,从而实现更好组织管理和资源分配。创建方法请参考项目管理。 准备MgC Agent(原Edge) 启用大数据校验功能前,需要先在源端环境中安装用于配合大数据校验的MgC

  • Windows主机迁移后数据盘缺失,如何解决? - 迁移中心 MGC

    您可以参考方法一或方法二,目的端主机进行处理。 方法一: 登录目的端主机,开始菜单打开“运行”输入框。 输入“diskmgmt.msc”,按“Enter”,进入磁盘管理页面。 磁盘管理页面,可以看到数据盘处于“脱机”状态。 图1 脱机 使用鼠标右键单击“脱机”数据盘,会出现联机菜单,单击联机即可恢复正常。

  • 在线调研 - 迁移中心 MGC

    在源端内网环境中或在可以访问到源端数据网络环境中安装MgC Agent并与迁移中心连接。 资源采集页面,单击数据库资源类型,进入数据库资源列表。 在数据库资源列表中,通过平台类型过滤出采集到所有AWS数据库资源,支持深度采集数据库类型迁移中心Agent绑定列,单击“绑定”,弹出绑定迁移中心Agent窗口。

  • 公网发现与采集 - 迁移中心 MGC

    在源端内网环境中或在可以访问到源端数据网络环境中安装Edge工具并与迁移中心连接。 资源采集页面的资源列表,单击数据库资源资源数量,进入资源列表页面的数据库页签。 在数据库资源列表中,通过平台类型过滤出采集到所有AWS数据库资源,支持深度采集数据库类型采集设备列,单击“绑定”,弹出绑定采集设备窗口。

  • 创建目的端连接 - 迁移中心 MGC

    在左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。页面左上角的当前项目下拉列表中选择完成准备工作时所创建迁移项目。 单击页面右上角“连接管理”按钮,进入连接管理页面。 单击页面右上角“创建目的端连接”按钮,右侧弹出新增连接窗口。 连接类型选择“数据湖探索 (DLI)”,单击“下一步”,进入详细配置页面。

  • 创建目的端连接 - 迁移中心 MGC

    拉列表中选择完成准备工作时创建数据迁移项目。 左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。 单击页面右上角“连接管理”按钮,进入连接管理页面。 单击页面右上角“创建目的端连接”按钮,右侧弹出新增连接窗口。 连接类型选择“数据湖探索 (DLI)”,单击“下一步”,进入详细配置页面。

  • MRS ClickHouse迁移至MRS ClickHouse数据校验 - 迁移中心 MGC

    您可以输入用于区分表组说明。 表管理页面,选择库表清单页签,勾选要加入同一表组数据表,单击列表上方“表组管理 > 批量加入组”,弹出修改表组窗口中,选择要加入表组,单击“确认”。 如果需要新增数据表,可以通过导入数据方式添加,方法请参考导入数据表并加入表组。 数据校验页面

  • 创建执行机连接 - 迁移中心 MGC

    创建执行机连接 执行机是获取数据任务执行单元,需要分别与源端和目的端执行机建立连接,然后执行数据统计,统计结果将用于数据校验。 以下大数据组件需要通过创建执行机连接来进行数据校验: Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据) Hudi(有元数据)

  • 创建执行机连接 - 迁移中心 MGC

    Hudi(有元数据) Hudi(无元数据) 需要确保源端和目的端执行机都安装了大数据组件命令行客户端。 源端和目的端执行机均需要创建连接。 操作步骤 登录迁移中心管理控制台。左侧导航栏项目下拉列表中选择创建数据迁移项目。 左侧导航栏选择“实施>大数据校验”,进入大数据校验页面。

  • 如何查看采集失败原因? - 迁移中心 MGC

    如何查看采集失败原因? 如果任务状态为“失败”,单击操作列“查看”,可以查看采集失败数据源,将鼠标放到数据采集状态上,可以查看失败原因。采集失败数据源,处理完失败原因后,需要删除后通过新增数据源重新采集。 父主题: 资源采集

  • 创建表组并添加数据表 - 迁移中心 MGC

    将填写后模板文件上传。 上传成功后,单击“确认”按钮,系统开始导入。在库表清单列表中可以查看导入数据表。 导出数据表 支持将Delta Lake和Hudi有元数据数据表导出为CSV格式。无元数据数据表不支持导出。 表管理页面,选择库表清单页签。 单击列表上方“导出 >

  • 创建表组并添加数据表 - 迁移中心 MGC

    将填写后模板文件上传。 上传成功后,单击“确认”按钮,系统开始导入。在库表清单列表中可以查看导入数据表。 导出数据表 支持将Delta Lake和Hudi有元数据数据表导出为CSV格式。无元数据数据表不支持导出。 表管理页面,选择库表清单页签。 单击列表上方“导出 >

  • 添加/修改华为云凭证 - 迁移中心 MGC

    MgC Agent(原Edge)控制台总览页面,单击页面右上角“查看配置”按钮,右侧弹出连接配置窗口。 在华为云账号框中,单击“配置”按钮。 弹出配置华为云凭证窗口,输入目的端华为云账号AK/SK,单击“确认”,完成添加。 修改华为云凭证 如果您需要替换保存华为云凭证,可以将其删除后,重新添加。

  • Delta 数据量较大时,如何优化校验任务? - 迁移中心 MGC

    源端数据同步至迁移中心。 创建N个Delta元数据连接,除了执行机IP和端口不同以外,其余参数配置需要与步骤1.中第一个元数据连接保持一致。 “N”需要根据您现有的ECS资源和表数量来确定。ECS资源充足且表数量非常多情况下,增加元数据连接数量可以提高数据校验效率。

  • Hive校验sum统计结果显示未达标 - 迁移中心 MGC

    客户端,进行sql操作,出现用同一个命令存在返回值不同情况。 这是因为进行大数据对数求和计算时,由于分布式计算顺序不确定性,可能会导致计算结果不一致性。特别是处理接近或等于double类型最大值(1.7976931348623157E+308)数据时,加上一个较小数值(如2.0)可能会导致数

  • 数据迁移失败,提示超过DLI网管流控上限 - 迁移中心 MGC

    数据迁移失败,提示超过DLI网管流控上限 问题描述 进行大数据数据迁移失败,在数据湖探索Spark作业查看报错信息为:The throttling thershold has been reached 问题分析 出现该问题,是因为您创建资源数量已达到DLI服务流控限制阈值。 解决方法

  • 准备工作 - 迁移中心 MGC

    数据湖DLI凭证输入目的端华为云账号AK/SK。 创建OBS桶并上传jar包 在华为云OBS创建一个存储桶,并将数据迁移过程中所依赖 Java 文件(jar包)上传至该OBS桶。创建OBS桶方法请参考创建桶。上传文件方法请参考上传对象。 数据迁移所依赖jar包分别为:migration-dli-spark-1

  • 数据-Hive Metastore凭证文件获取方法 - 迁移中心 MGC

    认证凭据”,可以下载凭证文件中krb5.conf和user.keytab文件。 MgC Agent添加凭证时,填写用户名要与此处下载凭证对应。 页面上方菜单栏选择“集群>Hive”,进入Hive概览页,单击右上角“更多>下载客户端”,弹出下载客户端窗口。 客户端类型选择“仅配置文件”,单击“确定”按钮。

  • 采集Azure容器AKS资源 - 迁移中心 MGC

    常包含丰富资源数据。 解析数据:MgC将返回数据进行解析,提取关键信息,如节点数、虚拟机核数等。然后将这些关键信息保存到数据库中,为后续分析和迁移提供支持。 准备工作 华为账号准备 使用MgC之前,您需要拥有一个华为账号或一个可用于访问MgCIAM用户,注册华为账号以及创建IAM用户的方法请参考准备工作。