检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
阿里云 ClickHouse迁移至CloudTable ClickHouse数据校验 本文主要介绍将阿里云 ClickHouse数据迁移至华为云CloudTable ClickHouse后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 准备工作 需要先在源端内网环境中安装用于配合数据校验的工具MgC
如何获取云平台凭证(AK/SK)? 本节为您介绍如何获取添加云平台凭证所需的认证信息(访问密钥)。 获取阿里云访问密钥(AccessKey) 添加阿里云凭证时,需要填写源端资源所在的阿里云账号或RAM用户的AccessKey ID和AccessKey Secret。获取方法请参考创建AccessKey。
凭证管理 凭证是资源采集的唯一认证方式,本节介绍如何添加用于发现云上资源(公网发现)所需要的凭证。内网发现、手动添加所需的凭证添加方式请参考在Edge添加凭证。 认证方式 当前仅支持添加公有云资源类型的凭证。支持的认证方式参见表1。 表1 公有云认证方式 资源类型 认证方式 说明
创建应用 您可以通过创建应用,将采集到的资源添加到应用中,对资源进行功能分组,便于后续进行规格评估和创建迁移工作流。 新建应用 登录迁移中心管理控制台。 单击左侧导航栏的“调研>应用管理”,进入应用管理页面。在页面左上角的当前项目下拉列表中选择迁移项目。 单击应用框中的“新建应用”按钮,弹出新建应用窗口。
凭证管理 凭证是资源采集的唯一认证方式,本节介绍如何添加用于发现云上资源(公网发现)所需要的凭证。内网发现、手动添加所需的凭证添加方式请参考在MgC Agent添加凭证。 认证方式 当前仅支持添加公有云资源类型的凭证。支持的认证方式参见表1。 表1 公有云认证方式 资源类型 认证方式
导入RVTools资源任务失败 问题场景 创建导入RVTools资源采集任务后,任务采集失败。 问题分析 RVTools资源采集任务失败通常是因为RVTools导出的Excel文件可能存在兼容性问题或格式错误。 解决方案 将RVTools导出的Excel文件在Windows操作系统上的Excel软件中打开。
创建元数据连接 创建元数据来源类型的连接,获取源端大数据库表清单。 目前支持的连接类型,参见表1。 表1 支持的元数据连接类型 类别 连接类型 大数据组件 Hive Metastore Doris HBase ClickHouse Delta Lake(有元数据) Delta Lake(无元数据)
创建统计任务并执行校验 利用创建的源端连接和目的端连接,分别创建源端和目的端统计任务,获取源端和目的端的数据信息,以便于进行数据校验。 支持的大数据组件和统计方式说明请参见大数据校验概述。 注意事项 创建的源端统计任务和目的端统计任务的统计方式必须保持一致。 HBase安全集群任
准备工作 在使用大数据校验功能前,请务必先完成以下必要的准备工作。 创建项目 通过创建独立的项目,可以将不同的操作场景进行区分和隔离,从而实现更好的组织管理和资源分配。创建方法请参考项目管理。 准备迁移工具Edge 在启用大数据校验功能前,需要先在源端环境中安装用于配合大数据校验
存储迁移 存储迁移的约束与限制有哪些? 迁移对源端和目的端有什么要求? 进行存储迁移时,如何选择集群规格? 影响大对象迁移速度的关键因素有哪些? 影响小对象迁移速度的关键因素有哪些? 如何监控和查看影响迁移速度的关键指标? 为什么存储迁移工作流进度长时间没有变化? 将HTTP/H
大数据-Hive Metastore凭证文件获取方法 参考访问FusionInsight Manager登录Manager,进入系统页面。 在左侧导航栏,选择“权限>用户”,进入用户页面。 在用户列表,选择要在MgC Agent(原Edge)添加凭证的用户,单击操作列“更多>下载
迁移风险评估 在资源迁移前,可以通过风险评估,提前检查可能影响迁移的风险项,包括但不限于兼容性问题、固件兼容性、规格差异等。 目前仅支持主机资源进行迁移风险评估。 前提条件 已通过公网发现、内网发现或手动添加中的任意一种方法获取主机资源。 操作步骤 登录迁移中心控制台。 单击左侧
查看并导出执行结果 每运行一次迁移任务,即会生成一条任务实例。在任务实例的进度详情页面,可以查看并导出任务的执行结果。 导出的结果文件可以在生成的15天内下载,15天后自动删除。 前提条件 已创建迁移任务并运行。 操作步骤 在任务进度列表,单击进度统计列的“查看”,进入进度详情页面。
查看并导出执行结果 每运行一次迁移任务,即会生成一条任务实例。在任务实例的进度详情页面,可以查看并导出任务的执行结果。 导出的结果文件可以在生成的15天内下载,15天后自动删除。 前提条件 已创建迁移任务并运行。 操作步骤 在任务进度列表,单击进度统计列的“查看”,进入进度详情页面。
创建统计任务并执行校验 利用创建的源端连接和目的端连接,分别创建源端和目的端统计任务,获取源端和目的端的数据信息,以便于进行数据校验。 支持的大数据组件和统计方式说明请参见大数据校验概述。 注意事项 创建的源端统计任务和目的端统计任务的统计方式必须保持一致。 数据量较大时,对数成功率99
迁移风险评估 在资源迁移前,可以通过风险评估,提前检查可能影响迁移的风险项,包括但不限于兼容性问题、固件兼容性、规格差异等。 目前仅支持主机资源进行迁移风险评估。 前提条件 已通过公网发现、内网发现或手动添加中的任意一种方法获取主机资源。 操作步骤 登录迁移中心管理控制台。在左侧
准备工作 在使用大数据校验功能前,请务必先完成以下必要的准备工作。 华为账号准备 使用MgC之前,您需要拥有一个华为账号或一个可用于访问MgC的IAM用户,并获取账号/IAM用户的访问密钥(AK/SK)。获取方法请参考准备工作。 在创建元数据连接时,如果要使用“采集资源使用信息”
配置采集器插件JVM参数 Windows系统 以下步骤以Windows 11 ,采集器rda-collector-server为例。 启动脚本位置。 MgC Agent安装目录(默认为C:\Edge) .\tools\plugins\collectors\rda-collector-server\bin\start
概述 背景介绍 当您迁移Linux主机时,需要确保源端主机能够识别并解析相关云服务的接口域名。这通常涉及到在每台源端主机上编辑hosts文件。如果迁移的主机数量众多,手动编辑将非常耗时。为了简化这一过程,我们提供了一个批量修改的脚本示例。您可以利用这个脚本,快速地将域名解析IP批
创建并运行元数据同步任务 利用元数据连接,创建元数据同步任务,将源端数据库的库、表、字段信息同步至迁移中心。 支持创建元数据同步任务的连接类型如下: Hive Metastore连接 Doris连接 HBase连接 ClickHouse连接 Hudi(有元数据)连接 Hudi(无元数据)连接