检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用须知 目前支持采集的VMware版本包括:VMware 5.0~7.0 VMware扫描和网段扫描两种方法都采用私有IP结合Edge ID的方式来标识内网中的主机资源。这意味着,一旦完成一次资源采集,如果被采集的主机私有IP发生变更,系统将在下一次采集时将其识别为一个新的主机
Linux磁盘分区调整 Linux支持LVM调整,可以选择物理卷和逻辑卷是否迁移以及调整大小。 Linux Btrfs文件系统暂时不支持磁盘分区调整。 Linux系统分区,swap分区是否迁移不可选,默认为“是”,必须进行迁移。 LVM迁移卷组,可通过卷组配置页,左上方的按钮组,选择全部迁移或暂不迁移。
”,如何处理? 出现该提示是因为MgC Agent(原Edge)无法访问到源端。 源端为Windows系统时需要对安装MgC Agent主机的IP开放5985端口。 源端为Linux系统时需要对安装MgC Agent主机的IP开放22端口。 源端Windows服务器需要关闭防火墙、杀
MgC主机迁移工作流在迁移过程中,首先系统会采集源端主机的磁盘挂载信息,并根据源端的磁盘挂载情况在目的端创建相应的磁盘配置。但在实际迁移时,只会迁移源端已挂载、已使用且文件系统兼容的磁盘。因此,在迁移过程中目的端主机只挂载了满足迁移条件的磁盘,而未使用或文件系统不兼容的磁盘则会被剥离,处于“未挂载”状态。
Hive版本间数据迁移以及将自建CDH/EMR环境上的数据迁移至华为云MRS Hive之后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 准备工作 需要先在源端内网环境中安装用于配合数据校验的工具MgC Agent(原Edge)并注册用户,方法请参见安装Linux版本的MgC
HBase数据校验 本文主要介绍MRS HBase版本间数据迁移后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 准备工作 需要先在源端内网环境中安装用于配合数据校验的工具MgC Agent(原Edge)并注册用户,方法请参见安装Linux版本的MgC Agent。 需要将源端和目的
Doris数据校验 本文主要介绍MRS Doris版本间数据迁移后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 准备工作 需要先在源端内网环境中安装用于配合数据校验的工具MgC Agent(原Edge)并注册用户,方法请参见安装Linux版本的MgC Agent。 操作步骤 登录迁移中心管理控制台。
免责声明 License失效声明 源端服务器的系统、应用、文件等数据迁移到目的端服务器后,服务器的SID、网卡MAC地址等信息发生改变,导致OS、应用等License失效。此类问题,迁移服务概不负责。对于Windows License可以使用华为云License服务器获取新Lic
本文主要介绍MRS ClickHouse版本间数据迁移后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 准备工作 需要先在源端内网环境中安装用于配合数据校验的工具MgC Agent(原Edge)并注册用户,方法请参见安装Linux版本的MgC Agent。 操作步骤 登录迁移中心管理控制台。
创建应用迁移项目 在MgC控制台为本次迁移创建独立的项目,方法请参见项目管理。 创建弹性文件系统 在目的端创建相应的弹性文件系统,用于迁移后的数据存储和管理,方法请参见创建弹性文件系统。 父主题: SFS1.0迁移至SFS 3.0
出现该问题是因为,在VMware创建主机的时候,实际使用的镜像版本与预选的镜像版本不一致(如选择的是CentOS6,但实际使用的是CentOS7),虽然在VMware上可以正常运行,但在迁移过程中,这种版本差异可能会导致兼容性问题,从而引发错误。建议您在安装VMware时使用与预选的镜像版本一致的镜像。 父主题: 主机迁移工作流
需要确保所绑定的目的端主机磁盘容量大于源端实际使用量。 例如,源端主机系统盘为50G,数据盘为20G,但实际使用量远低于此,在磁盘容量与数量上均有缩容空间。因此,目的端可选择绑定一台仅包含40G系统盘的主机,即可满足业务需求。 单击“确认”。目的端绑定成功后,系统会自动判断所绑定的目的端是否进行了磁盘缩容,
出现该问题,可能是在安装MgC Agent(原Edge)主机上的Linux采集脚本时,UNIX换行符格式不正确。正常情况下,Linux系统使用“LF”作为换行符,但安装的脚本中使用了Windows系统的“CR LF”。这种格式不匹配导致采集时脚本推送到源端主机上执行失败。 解决方案 卸载当前安装的MgC Agent,然后重新安装。
Kafka采集器(app-discovery-kafka) 通过连接到Kafka节点,获取Kafka节点IP、版本、消费者信息等。参数配置说明参见表1。 表1 Kafka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-kafka-xxx
可以根据源端主机磁盘的实际使用量,进行缩容,即小于源端磁盘容量。更改磁盘规格后,系统会自动判断是否进行了磁盘缩容,在主机资源配置明细列表中的“磁盘缩容”列,“是”代表已缩容;“否”代表未缩容。 系统盘容量取值范围为:40 G~1024 G 数据盘容量取值范围为:10 G~32768
使用须知 目前支持采集的VMware版本包括:VMware 5.0~7.0 VMware扫描和网段扫描两种方法都采用私有IP结合MgC Agent ID的方式来标识内网中的主机资源。这意味着,一旦完成一次资源采集,如果被采集的主机私有IP发生变更,系统将在下一次采集时将其识别为一个新
使用须知 目前支持采集的VMware版本包括:VMware 5.0~7.0 VMware扫描和网段扫描两种方法都采用私有IP结合MgC Agent ID的方式来标识内网中的主机资源。这意味着,一旦完成一次资源采集,如果被采集的主机私有IP发生变更,系统将在下一次采集时将其识别为一个新
迁移中心使用权限配置 您可以参考创建用户并授权使用MgC,为IAM用户创建所需的系统权限;您还可以参考自定义策略,为IAM用户创建细粒度权限。 父主题: 产品咨询
Redis采集器(app-discovery-redis) 通过连接到Redis节点,获取Redis节点IP、版本、连接客户端IP信息。参数配置说明参见表1。 表1 Redis采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-redis-xxx
准备工作 开通spark 3.3.1白名单 使用该功能前,请联系技术支持人员,将您添加到spark 3.3.1版本的白名单中。 配置DLI作业桶 需要购买一个OBS桶或并行文件系统并设置为DLI作业桶,该桶用于存储DLI作业运行过程中产生的临时数据。方法请参考配置DLI作业桶。 操作步骤