已找到以下 136 条记录
AI智能搜索
产品选择
迁移中心 MGC
没有找到结果,请重新输入
产品选择
迁移中心 MGC
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • DeltaLake(有元数据)迁移至MRS DeltaLake数据校验 - 迁移中心 MGC

    元数据连接 选择步骤8.创建的元数据连接。 数据库(可选) 填写需要进行元数据同步的数据库名称。不填则代表同步全部数据库。 并发线程数 设置采集线程并发数。默认为3,1≤取值范围≤10。增加线程并发数,可以提高同步效率,但会占用更多源端连接迁移工具(Edge)所安装主机的计算资源。

  • MaxCompute迁移至MRS Hive数据校验 - 迁移中心 MGC

    默认创建名称为“元数据同步任务-4位随机数(字母和数字)”,也可以自定义名称。 元数据连接 选择步骤8.创建的元数据连接。 数据库 填写需要进行元数据同步的数据库名称,如果有多个数据库,库名之间用逗号隔开。 须知: 元数据连接为MaxCompute类型时,该参数为必填参数,不能为空。 并发线程数

  • MaxCompute迁移至DLI数据校验 - 迁移中心 MGC

    默认创建名称为“元数据同步任务-4位随机数(字母和数字)”,也可以自定义名称。 元数据连接 选择步骤8.创建的元数据连接。 数据库 填写需要进行元数据同步的数据库名称,如果有多个数据库,库名之间用逗号隔开。 须知: 元数据连接为MaxCompute类型时,该参数为必填参数,不能为空。 并发线程数

  • 使用须知 - 迁移中心 MGC

    要将所有datetime类型的字段转换为字符串(STRING)格式。 MaxCompute不支持varcharchar类型字段,在迁移之前,需要将所有varcharchar类型的字段转换为字符串(STRING)格式。 元数据迁移不支持事务表(即DDL中带有transactional=true字段的表)。

  • 大数据校验概述 - 迁移中心 MGC

    大数据校验概述 迁移中心 MgC为多种大数据计算/存储引擎,如Hive、Hbase、DorisMaxCompute等,提供了一致性校验方法。通过一致性校验,您可以更加放心地进行大数据迁移操作,确保数据的准确性可靠性,从而避免了数据丢失或不一致的风险。 校验方式说明 全量校验:全量对比所有数据,适用于需要对比历史数据的场景。

  • 产品功能 - 迁移中心 MGC

    提供架构图和依赖图来展示应用间的关联关系应用的组织架构,帮助用户进行迁移分析方案设计。 支持批量导入/导出资源。 评估推荐 通过采集源端主机、数据库、对象存储等资源信息应用的关联关系进行评估分析,根据源端资源规格、性能应用场景以及特定的成本、可用性、性能、安全合规等需求,为您推荐最合适的华为云对应资源规格,支持导出评估结果。

  • 归档存储(冷存储)数据迁移 - 迁移中心 MGC

    您希望迁移到的目的端区域。创建方法请参考创建桶。 权限配置 确保源端账号目的端账号拥有迁移需要的权限,详细介绍请参见如何获取源端桶目的端桶权限?。 创建集群 通过集群可以创建Master节点、迁移节点列举节点,确保存储工作流的顺利运行。创建方法请参考创建集群。 创建迁移工作流

  • 公网采集权限要求 - 迁移中心 MGC

    ms Read OSS ListBuckets oss:ListBuckets oss:DescribeMetricData List 数据库 RDS rds:DescribeDBInstances Read rds:DescribeDBInstanceAttribute Read

  • 采集AWS容器资源 - 迁移中心 MGC

    值通常包含丰富的资源数据。 解析数据:MgC将返回的数据进行解析,提取关键信息,如节点数、虚拟机核数等。然后将这些关键信息保存到数据库中,为后续分析迁移提供支持。 深度采集原理 MgC对AWS 容器资源进行深度采集的原理图,如图2所示。 图2 AWS容器深度采集原理图 对AWS

  • 创建源端组件连接 - 迁移中心 MGC

    参考添加资源凭证,类型选择“大数据-Doris”。 数据库地址 填写连接到源端Doris集群部署的服务器IP地址。 数据库端口 填写连接到源端Doris集群部署的服务器的端口。默认为3306。 数据库名 填写源端Doris数据库名称。 表2 HBase连接参数配置说明 参数 配置说明

  • 配置采集器插件JVM参数 - 迁移中心 MGC

    tor-server\bin\start.bat,其中rda-collector-server可替换其他采集器的目录,目前包含采集器: 数据库采集器 :rda-collector-database。 容器采集器 :rda-collector-kubernetes。 平台采集器 :

  • 采集Azure容器AKS资源 - 迁移中心 MGC

    值通常包含丰富的资源数据。 解析数据:MgC将返回的数据进行解析,提取关键信息,如节点数、虚拟机核数等。然后将这些关键信息保存到数据库中,为后续分析迁移提供支持。 准备工作 华为账号准备 使用MgC之前,您需要拥有一个华为账号或一个可用于访问MgC的IAM用户,注册华为账号以及创建IAM用户的方法请参考准备工作。

  • 功能总览 - 迁移中心 MGC

    用量,并对比源端云厂商使用费用华为云使用费用,为您云间迁移提供参考。 支持区域: 全部 创建分析任务 资源发现与采集 支持多种类的资源采集,包括:云平台、主机、数据库、容器、大数据、中间件等。通过对采集到的信息进行调研评估,为用户上云提供配置推荐方案设计。 支持区域: 全部 资源发现与采集

  • 查看应用关联分析结果 - 迁移中心 MGC

    查看应用关联分析结果 迁移中心会整理源端资源应用间的关联关系,并且绘制技术架构图应用依赖图,为后续迁移计划的制定目的端架构设计提供帮助。 前提条件 已导入应用关联文件或导入工具采集结果。 查看技术架构图 在应用管理页面,单击应用框中的“技术架构图”,可以查看所有服务、微服务、资源的矩阵图。

  • 工具概述 - 迁移中心 MGC

    myhuaweicloud.com:443 凭证收集 Edge在进行资源采集时,会根据不同的资源类型,收集对应的凭证信息。涉及的资源类型凭证信息包括:主机凭证、数据库凭证、容器凭证、VMware平台凭证、租户AKSK。 通信矩阵 通信矩阵列出了使用迁移工具Edge需要开放的端口,以及端口使

  • 创建统计任务并执行校验 - 迁移中心 MGC

    创建统计任务并执行校验 利用创建的源端连接目的端连接,分别创建源端目的端统计任务,获取源端目的端的数据信息,以便于进行数据校验。 支持的大数据组件统计方式说明请参见大数据校验概述。 注意事项 创建的源端统计任务目的端统计任务的统计方式必须保持一致。 HBase安全集群任

  • 创建执行机连接 - 迁移中心 MGC

    Lake(无元数据) Hudi(有元数据) Hudi(无元数据) 需要确保源端目的端执行机都安装了大数据组件的命令行客户端。 源端目的端执行机均需要创建连接。 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“实施>大数据校验”,进入大数据校验页面。在页面左上角的当前项目下拉列表中选择迁移项目。

  • 准备工作 - 迁移中心 MGC

    准备工作 在使用大数据校验功能前,请务必先完成以下必要的准备工作。 创建项目 通过创建独立的项目,可以将不同的操作场景进行区分隔离,从而实现更好的组织管理资源分配。创建方法请参考项目管理。 准备迁移工具Edge 在启用大数据校验功能前,需要先在源端环境中安装用于配合大数据校验的

  • DeltaLake(无元数据)迁移至MRS DeltaLake数据校验 - 迁移中心 MGC

    方式添加,方法请参考导入数据表并加入表组。 分别创建源端执行机连接目的端执行机连接,方法请参考创建执行机连接。执行机凭证分别选择步骤4.在Edge侧添加的源端目的端执行机凭证。 在MgC控制台,分别创建源端目的端Delta统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16

  • 血缘采集概述 - 迁移中心 MGC

    血缘采集概述 通过血缘采集,可以建立起数据元素之间的关系依赖关系,从而形成一个清晰的数据血缘图。 目前支持血缘采集的文件类型以及采集须知,参见下表。 文件类型 采集须知 血缘模板 需要下载血缘模板,并填写相应数据。 父主题: 血缘采集