检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
单次采集持续时间,单位为s(秒),1<取值范围<period值,取整数,不设置默认为period值的一半。 max_count 否 每次最大采集量,取值范围≥1,取整数,不设置默认为1000条。 period 否 采集间隔时间,单位为m(分钟),1m≤取值范围≤30m,取整数,不设置默认为1m。 time 是 采集
选择私网迁移,需要提前配置专线、VPN、对等连接或同VPC子网,确保源端能够通过私网访问目的端。 在目的端配置区域,选择与源端网络打通的VPC和子网作为中转VPC。 配置的VPC和子网,对已绑定目的端的主机不生效。如果所选应用中的主机均已绑定目的端,则无需进行目的端配置。 在高级设置
et) 通过采集k8s pod的网络分析应用间的关联关系。参数配置说明参见表1。 表1 k8s pod采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-k8s-pod-net-xxx.csv文件)输出路径。不填则输出
SMS-Workflow.0306 目的端虚拟机磁盘数量和源端不匹配 目的端虚拟机磁盘数量比源端少, 请挂载和源端数量一致,大小匹配的磁盘后重试。 SMS-Workflow.0307 目的端虚拟机磁盘大小和源端不匹配 目的端虚拟机第x块磁盘(*GB)比源端(*GB)小。 请调整目的端磁盘大小后重试。
MySQL-generallog采集器(app-discovery-mysql-generallog) 通过MySQL的general-log日志,采集客户端host和port信息。参数配置说明参见表1。 表1 MySQL-generallog采集器参数配置说明 参数 必选 配置说明
a) 通过连接到Kafka节点,获取Kafka节点IP、版本、消费者信息等。参数配置说明参见表1。 表1 Kafka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-kafka-xxx.csv文件)输出路径。不填则输
Eureka采集器(app-discovery-eureka) 通过Eureka提供的开发API,采集Eureka Server和Eureka Client的相关信息。参数配置说明参见表1。 表1 Eureka采集器参数配置说明 参数 必选 配置说明 output_path 否
MySQL-jdbc采集器(app-discovery-mysql-jdbc) 通过jdbc连接MySQL的processlist表,采集客户端host和port信息。参数配置说明参见表1。 表1 MySQL-jdbc采集器参数配置说明 参数 必选 配置说明 output_path
创建项目 通过创建迁移项目,可以实现不同迁移资源间的隔离。例如:您可以为迁移阿里云资源、AWS资源分别创建项目,通过项目将不同来源的资源进行隔离。 操作步骤 登录迁移中心管理控制台。 单击左侧导航栏的“配置管理”,进入配置管理页面。选择“项目管理”页签,单击“创建项目”。 在弹出
Redis采集器(app-discovery-redis) 通过连接到Redis节点,获取Redis节点IP、版本、连接客户端IP信息。参数配置说明参见表1。 表1 Redis采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-redis-xxx
要的最小权限,后续使用的AK/SK权限以此为准。 用户通过属于admin组的用户,创建属于migration_users组的、仅支持编程访问的用户mgc-user(同时勾选访问密钥,在创建用户后下载访问密钥),该用户无法通过华为云console密码登录,仅支持编程访问。 后续提供
、华为云、AWS、腾讯云、Azure。 本节介绍简单项目的公网采集步骤,复杂项目的公网采集步骤请参见创建公网采集任务。 通过公网采集的主机,需要迁移预检查通过或深度采集成功后,才可以创建迁移工作流。 前提条件 已在源端内网环境安装Edge工具,并与迁移中心连接。 已在Edge上添
数据源采集失败,如何重新采集? 采集失败的数据源,处理完失败原因后,需要删除后通过新增数据源重新采集。 在任务列表页面,单击采集任务操作列的“查看”,进入任务详情页面。 单击采集项操作列的“新增数据源”,弹出新增数据源窗口。 选择区域和资源类型,单击“确认”按钮。新增数据源成功,系统开始对新增的数据源进行采集。
DeltaLake之后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 DeltaLake不存在元数据,无法通过数据湖元数据同步方式进行数据采集,需要通过导入数据的方式获取元数据信息。 准备工作 需要先在源端内网环境中安装用于配合数据校验的工具Edge并注册用户,方法请参见安装Linux版本的Edge工具。
1.0、SFS 3.0和集群之间的网络连通。 SFS 1.0网络打通 SFS 1.0通过创建对等连接来打通网络,方法请参考创建相同账户下的对等连接。 SFS 3.0网络打通 SFS 3.0通过配置VPC终端节点并添加与迁移集群相同的VPC来实现网络打通。 参考配置VPC终端节点
骤,旨在帮助用户高效、准确地完成AWS 容器资源的数据采集工作。 公网发现原理 使用MgC通过公网发现AWS容器资源的原理图,如图1所示。 图1 采集AWS容器资源原理图 调用SDK:通过调用Amazon EKS服务提供的API,获取容器、虚拟机等资源信息。 接口返回:MgC接收
目的端规格配置完成后,无需切换服务,可以直接在迁移中心批量购买目的端资源。当前仅支持购买主机资源。主机迁移工作流支持自动购买主机资源,通过“购买列表”批量购买资源适用于部分主机需要重新部署的场景。通过购买列表成功购买的主机,将自动绑定为迁移目的端,可以使用主机工作流继续迁移。 前提条件 已对源端资源完成规格评估。
可用区迁移错误码处理方法汇总 使用可用区迁移工作流时,当出现AZworkflow.xxxx类型的报错时,可通过错误码描述和处理方法查询报错原因以及处理方法。 父主题: 可用区迁移
主机迁移工作流错误码处理方法汇总 使用主机迁移工作流时,当出现SMS-Workflow.xxxx类型的报错时,可通过错误码描述和处理方法查询报错原因以及处理方法。 父主题: 主机迁移工作流
产品功能 迁移成本分析(TCO) 通过迁移中心提供的TCO对比功能,可以自动完成源端云厂商消费账单分析以及和华为云的成本分析和比较,从而为您云间迁移提供参考。 应用关联分析 通过采集注册中心、配置中心、CMDB等平台,获取微服务间调用关系。配置更多采集项,可以更准确的分析出应用与