检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
当您迁移Windows主机时,需要确保源端主机能够解析相关云服务的接口域名。这通常涉及到在每台源端主机上编辑hosts文件。如果迁移的主机数量众多,手动编辑将非常耗时。为了简化这一过程,我们提供了一个批量修改的脚本示例。您可以利用这个脚本,快速地将域名解析IP批量追加写入到所有源端主机的hosts文件中。
当您迁移Linux主机时,需要确保源端主机能够识别并解析相关云服务的接口域名。这通常涉及到在每台源端主机上编辑hosts文件。如果迁移的主机数量众多,手动编辑将非常耗时。为了简化这一过程,我们提供了一个批量修改的脚本示例。您可以利用这个脚本,快速地将域名解析IP批量推送到所有源端主机的hosts文件中。
采集各服务的功能见下表。 服务 功能 资源管理 RM 通过采集该服务可以发现更多应用与资源间的关联线索,防止应用与资源间关系链断裂。 域名解析服务 DNS 通过采集该服务可以从接入层分析应用间的关联关系。 应用防火墙 WAF 通过采集该服务可以获得接入层的流量方向。 负载均衡 SLB
password:该字段表示登录源端主机时所需的密码。脚本将使用此密码通过SSH协议自动登录到源端主机。 CSV文件的第一行是标题行,不会被脚本解析 CSV文件的每一行对应一台主机信息,并且每一列信息之间用英文逗号分隔。 确保格式正确和信息准确,不要出现多余的空格、逗号或无效的IP地址等。
迁移工作流步骤执行失败,提示“Edge is not accessible ...”,如何处理? 出现该提示是因为MgC Agent(原Edge)无法访问到源端。 源端为Windows系统时需要对安装MgC Agent主机的IP开放5985端口。 源端为Linux系统时需要对安装MgC
可用区(AZ)迁移有哪些注意事项? 密码一致性 如果源端Windows主机安装了 Cloudbase-Init 插件,会导致新下发的主机生成随机密码,从而与源端密码不一致,因此迁移前需要将 Cloudbase-Init 插件卸载。 账号余额 由于AZ迁移需要进行创建存储库、服务器
主机迁移工作流步骤执行失败,失败原因:SMS-Workflow.0503:SMS migration task failed 'SMS.xxxx' 问题描述 主机迁移工作流进行到全量复制/增量同步步骤时失败,提示失败原因为:SMS-Workflow.0503:SMS migration
source-node-01 完成所有映射的添加后,保存并关闭/etc/hosts文件。 为了确保配置正确,可以通过ping命令测试主机名解析是否成功。例如: ping source-node-01 操作步骤 登录迁移中心管理控制台。在总览页面,单击“创建迁移项目”。 在弹出的窗
准备工作 为了确保迁移过程的顺利进行,需要完成以下必要的准备工作。 华为账号准备 使用MgC之前,您需要拥有一个华为账号或一个可用于访问MgC的IAM用户,并获取账号/IAM用户的访问密钥(AK/SK)。获取方法请参考准备工作。 阿里云访问密钥(AK/SK)准备 检查阿里云迁移账
创建目的端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“实施>大数据校验”
创建目的端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择创建的大数据迁移项目。
创建源端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建源端连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据) Hudi(有元数据)
创建源端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建源端连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据) Hudi(有元数据)
EKS服务提供的API,获取容器、虚拟机等资源信息。 接口返回:MgC接收API调用的返回值,这些返回值通常包含丰富的资源数据。 解析数据:MgC将返回的数据进行解析,提取关键信息,如节点数、虚拟机核数等。然后将这些关键信息保存到数据库中,为后续分析和迁移提供支持。 深度采集原理 MgC对AWS
网卡,请选用其他规格 请删除迁移工作流,并前往评估推荐修改主机的推荐磁盘类型,然后重新创建迁移工作流。 AZ-Workflow.0405 解析磁盘信息失败 请联系技术支持人员或提交工单。 AZ-Workflow.0406 参数'disk_infos'为空 请联系技术支持人员或提交工单。
创建元数据连接 创建元数据来源类型的连接,获取源端大数据库表清单。 目前支持的连接类型,参见表1。 表1 支持的元数据连接类型 类别 连接类型 大数据组件 Hive Metastore Doris HBase ClickHouse Delta Lake(有元数据) Delta Lake(无元数据)
MySQL-jdbc采集器(app-discovery-mysql-jdbc) 通过jdbc连接MySQL的processlist表,采集客户端host和port信息。参数配置说明参见表1。 表1 MySQL-jdbc采集器参数配置说明 参数 必选 配置说明 output_path
创建元数据连接 创建元数据来源类型的连接,获取源端大数据库表清单。 目前支持的连接类型,参见表1。 表1 支持的元数据连接类型 类别 连接类型 大数据组件 Hive Metastore Doris HBase ClickHouse Delta Lake(有元数据) Delta Lake(无元数据)
AKS API,获取容器、虚拟机等资源信息。 接口返回:MgC接收API调用的返回值,这些返回值通常包含丰富的资源数据。 解析数据:MgC将返回的数据进行解析,提取关键信息,如节点数、虚拟机核数等。然后将这些关键信息保存到数据库中,为后续分析和迁移提供支持。 准备工作 华为账号准备
作业ID(JobId) 须知: 模板中目标组件类型和上游组件类型支持的类型包括HiveSQL、MaxCompute。 模板中单元格不允许存在公式,否则会导致解析失败。 模板参数填写完成并保存后,单击窗口的“添加文件”,将填写后的模板文件上传至迁移中心。 注意: 文件大小不能超过100 MB。 选择血缘模板。