检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
准备工作 CSV文件准备 创建一个包含源端主机信息的CSV文件,确保文件能被访问,并且格式符合要求。格式如下: username,ip,port,password username:该字段表示登录源端主机时所使用的用户名。为了确保脚本具有足够的权限执行修改操作,通常应使用具有管理员权限的用户名
步骤二:采集阿里云ECS主机资源 前提条件 已完成准备工作。 已在源端环境中安装Edge,并与迁移中心连接。 操作步骤 登录迁移中心管理控制台。 单击左侧导航栏的“调研>资源采集”,进入资源采集页面。在页面左上角的当前项目下拉列表中选择在完成准备工作时所创建的迁移项目。 单击任务框中的
Cloud-vpc-log采集器(app-discovery-cloud-vpc-log) 通过vpc log文件,采集vpc流量信息。参数配置说明参见表1。 表1 Cloud-vpc-log采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-cloud-vpc-log-xxx.csv
如何重启Edge? Windows版本 打开Edge所在主机的“任务管理器”。 选择“服务”页签,找到名为“Edge_Tomcat ”的服务,鼠标右键,单击“开始”,即可手动启动Edge进程。 Linux版本 执行如下命令,进入Edge安装目录中的scripts目录。 cd /opt
如何监控和查看影响迁移速度的关键指标? 迁移集群指标 迁移集群包含的关键指标和说明参见下表。 指标 作用 说明 CPU使用率 监控CPU使用状态 迁移小文件时,该指标比较重要,建议CPU使用率接近但不超过90%。 外网络流入、流出速率 观察网络流量流入、流出速率变化情况 迁移大文件时
工具概述 迁移工具Edge是一款用于配合迁移中心进行源端资源发现与采集的工具,同时Edge还提供了工作流模块,用于配合云端迁移工作流任务。 特性开关 Edge所包含的特性开关参见下表。 参数 说明 参数值 参数路径 config.httpclient.verifier 验证主机名特性开关
导入应用关联文件 将您源端配置管理数据库中的应用关联信息,填入导入模板表格中,再将表格导入迁移中心,分析出应用间的依赖及关联关系。 操作步骤 登录迁移中心管理控制台。 单击左侧导航栏的“调研>资源采集”,进入资源采集页面。在页面左上角的当前项目下拉列表中选择迁移项目。 单击任务框中的
应用配置采集器(app-discovery-application-config) 通过应用配置文件,采集应用配置信息。参数配置说明参见表1。 表1 应用配置采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-application-config-xxx.csv
进程与网络采集器(app-discovery-process-netstat) 采集目标节点的进程和网络关联关系。参数配置说明参见表1。 表1 进程与网络采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-process-netstat-xxx.csv
Nginx配置文件采集器(app-discovery-nginx) 根据Nginx下的config文件,解析获取Nginx的跳转信息。参数配置说明参见表1。 表1 Nginx配置文件采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-nginx-xxx.csv
Delta 数据量较大时,如何优化校验任务? 本文介绍当源端Delta数据量较大(如超过10000张表)时,如何使用MgC大数据校验功能进行一致性校验的方法。 操作步骤 参考创建元数据连接,创建第一个Delta元数据连接。 使用步骤1.创建的第一个元数据连接,创建元数据同步任务,将源端的元数据同步至迁移中心
MongoDB采集器(app-discovery-mongodb) 采集MongoDB服务信息,获取客户端连接信息。参数配置说明参见表1。 表1 MongoDB采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-mongodb-xxx.csv
K8S conntrack采集器(app-discovery-k8s-conntrack) 通过conntrack命令采集k8s集群的应用关联拓扑。参数配置说明参见表1。 表1 k8s conntrack采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果
自定义参数说明 在创建数据湖探索 DLI校验任务时,支持的自定义参数及说明参见表1。 表1 DLI校验任务支持的自定义参数说明 参数名称 默认值 描述 mgc.mc2dli.table.partition.enable true DLI表分区为空或者分区不存在时需要通过查询DLI的元数据去判断分区存不存在
K8S pod网络采集器(app-discovery-k8s-pod-net) 通过采集k8s pod的网络分析应用间的关联关系。参数配置说明参见表1。 表1 k8s pod采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-k8s-pod-net-xxx.csv
MySQL-generallog采集器(app-discovery-mysql-generallog) 通过MySQL的general-log日志,采集客户端host和port信息。参数配置说明参见表1。 表1 MySQL-generallog采集器参数配置说明 参数 必选 配置说明
Kafka采集器(app-discovery-kafka) 通过连接到Kafka节点,获取Kafka节点IP、版本、消费者信息等。参数配置说明参见表1。 表1 Kafka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-kafka-xxx.csv
创建元数据连接 创建元数据来源类型的连接,获取源端大数据库表清单。 目前支持的连接类型,参见表1。 表1 支持的元数据连接类型 类别 连接类型 大数据组件 Hive Metastore Doris HBase ClickHouse Delta Lake(有元数据) Delta Lake
Eureka采集器(app-discovery-eureka) 通过Eureka提供的开发API,采集Eureka Server和Eureka Client的相关信息。参数配置说明参见表1。 表1 Eureka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果
自定义参数说明 在目的端配置中,支持配置的自定义参数及说明请参见表1和conf参数说明。 表1 支持的自定义参数说明 参数名称 取值范围 说明 是否必填 spark.dli.metaAccess.enable - 填写true。 是 spark.dli.job.agency.name