检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
MySQL-generallog采集器(app-discovery-mysql-generallog) 通过MySQL的general-log日志,采集客户端host和port信息。参数配置说明参见表1。 表1 MySQL-generallog采集器参数配置说明 参数 必选 配置说明
Kafka采集器(app-discovery-kafka) 通过连接到Kafka节点,获取Kafka节点IP、版本、消费者信息等。参数配置说明参见表1。 表1 Kafka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-kafka-xxx
安装MgC Agent(原Edge)的主机有哪些要求? 安装Windows版本的主机要求 可以连接外网(公网),并检查是否能够访问MgC和IoTDA服务的域名,具体需要检查的域名请查看域名列表。 检查是否已开放MgC Agent(原Edge)需要的端口,所需端口请查看通信矩阵。 PowerShell
Agent。当资源较多时,可以同时勾选多个资源,并通过列表上方的“绑定采集设备”进行批量绑定。 IP 选择主机接入IP,可以为公网IP,也可以是私有IP;迁移预检查通过后,该IP会作为后续主机迁移工作流的资源接入IP。迁移时MgC Agent会通过接入IP访问源端主机。 端口 源端主机对MgC Agent安装主机开放端口。
MySQL-jdbc采集器(app-discovery-mysql-jdbc) 通过jdbc连接MySQL的processlist表,采集客户端host和port信息。参数配置说明参见表1。 表1 MySQL-jdbc采集器参数配置说明 参数 必选 配置说明 output_path
采集Azure容器AKS资源 在进行Azure Kubernetes Service(AKS)资源迁移前,通过MgC进行资源采集是关键步骤,它为后续迁移操作提供了必要的数据支持。本节介绍使用MgC采集AKS资源的基本原理、准备工作、账号权限要求以及具体的操作步骤,旨在帮助用户高效、准确地完成AKS资源的数据采集工作。
telnet 命令测试源端服务器的5985端口是否可以访问。如果端口无法访问,检查源端防火墙或安全防护软件设置,确保5985端口开放。 telnet ip port 检查网络配置:检查网络执行模式是否设置为“经典模式”,通过以下注册表命令检查: reg query "HKEY_L
X实例评估+自动购买+使用MgC工作流迁移上云 准备工作+步骤1~8 。 准备工作 华为账号准备: 使用MgC之前,您需要拥有一个华为账号或一个可用于访问MgC的IAM用户,并获取账号/IAM用户的访问密钥(AK/SK)。获取方法请参考准备工作。 创建迁移项目: 在MgC控制台为本次迁移创建独立的项目,方法请参见项目管理。
请联系技术支持人员或提交工单。 名称已存在。 请重新输入名称。 上传文件失败。 请联系技术支持人员或提交工单。 下载文件失败。 请联系技术支持人员或提交工单。 OBS文件不存在或已过期。 重新上传文件,或重命名文件后再上传。 MQ Sheet中生产者和消费者环境不一致。 请检查导入文件MQ Sheet中生产者和消费者环境是否一致。
创建项目 通过创建独立的项目,可以将不同的操作场景进行区分和隔离,从而实现更好的组织管理和资源分配。包含的项目类型和对应的使用场景说明如下: 应用迁移项目:适用于需要进行主机、存储等资源的采集、迁移场景。 复杂迁移(大数据迁移)项目:适用于需要进行大数据迁移和大数据一致性校验等复杂数据处理场景。
大数据校验概述 迁移中心 MgC为多种大数据计算/存储引擎,如Hive、Hbase、Doris和MaxCompute等,提供了一致性校验方法。通过一致性校验,您可以更加放心地进行大数据迁移操作,确保数据的准确性和可靠性,从而避免了数据丢失或不一致的风险。 校验方式说明 全量校验:全量
源数量增加。为了避免这种情况,建议在迁移过程完成之前,不要更改源端主机的私有IP地址。 通过VMware扫描发现的主机支持自动采集指定周期内的主机性能数据,无需再手动配置进行性能采集。 通过VMware扫描方式采集的性能数据来源于vCenter中留存的历史样本统计数据。vCenter历史样本统计数据的默认留存策略为:
源数量增加。为了避免这种情况,建议在迁移过程完成之前,不要更改源端主机的私有IP地址。 通过VMware扫描发现的主机支持自动采集指定周期内的主机性能数据,无需再手动配置进行性能采集。 通过VMware扫描方式采集的性能数据来源于vCenter中留存的历史样本统计数据。vCenter历史样本统计数据的默认留存策略为:
目的端规格配置完成后,无需切换服务,可以直接在迁移中心批量购买目的端资源。当前仅支持购买主机资源。主机迁移工作流支持自动购买主机资源,通过“购买列表”批量购买资源适用于部分主机需要重新部署的场景。通过购买列表成功购买的主机,将自动绑定为迁移目的端,可以使用主机工作流继续迁移。 前提条件 已对源端资源完成规格评估。
数据源采集失败,如何重新采集? 采集失败的数据源,处理完失败原因后,需要删除后通过新增数据源重新采集。 在任务列表页面,单击采集任务操作列的“查看”,进入任务详情页面。 单击采集项操作列的“新增数据源”,弹出新增数据源窗口。 选择区域和资源类型,单击“确认”按钮。新增数据源成功,系统开始对新增的数据源进行采集。
主机迁移工作流错误码处理方法汇总 使用主机迁移工作流时,当出现SMS-Workflow.xxxx类型的报错时,可通过错误码描述和处理方法查询报错原因以及处理方法。 父主题: 主机迁移工作流
参数值:spark.sql.catalogImplementation=hive 如果源端是阿里云 EMR Delta 2.2版本并且是通过Delta 2.3版本依赖访问时,请添加如下参数: 参数名:master 参数值:local 如果源端是阿里云 EMR Delta 2.1.0版本并且配置了Spark
可用区迁移错误码处理方法汇总 使用可用区迁移工作流时,当出现AZworkflow.xxxx类型的报错时,可通过错误码描述和处理方法查询报错原因以及处理方法。 父主题: 可用区迁移
目的端规格配置完成后,无需切换服务,可以直接在迁移中心批量购买目的端资源。当前仅支持购买主机资源。主机迁移工作流支持自动购买主机资源,通过“购买列表”批量购买资源适用于部分主机需要重新部署的场景。通过购买列表成功购买的主机,将自动绑定为迁移目的端,可以使用主机工作流继续迁移。 前提条件 已对源端资源完成规格评估。
1.0、SFS 3.0和集群之间的网络连通。 SFS 1.0网络打通 SFS 1.0通过创建对等连接来打通网络,方法请参考创建相同账户下的对等连接。 SFS 3.0网络打通 SFS 3.0通过配置VPC终端节点并添加与迁移集群相同的VPC来实现网络打通。 参考配置VPC终端节点