检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
可用区迁移错误码处理方法汇总 使用可用区迁移工作流时,当出现AZworkflow.xxxx类型的报错时,可通过错误码描述和处理方法查询报错原因以及处理方法。 父主题: 可用区迁移
主机迁移工作流错误码处理方法汇总 使用主机迁移工作流时,当出现SMS-Workflow.xxxx类型的报错时,可通过错误码描述和处理方法查询报错原因以及处理方法。 父主题: 主机迁移工作流
are Development Kit,软件开发工具包)。通过SDK提供的方法和API,与中间件进行交互,实现数据的采集。 容器采集 权限要求:需要管理员级别权限的账号导出包含必要访问凭证的文件。 采集原理:利用kspider工具进行数据采集。 vCenter采集 权限要求:需要
用”按钮,启用该工具进行后续操作。 如迁移工具状态为“离线”、“已删除”,代表该工具已被删除,无法进行对数操作;如果该工具在删除前进行过对数操作,可以单击“查看”按钮,查看已有数据。 如迁移工具状态为“离线”、“未启用”,代表该工具无法进行对数相关操作,单击“查看”按钮,界面上的所有操作按钮会被禁用。
手动添加 适用于采集本地主机和暂不支持公网、内网采集的云平台主机。 前提条件 已在源端内网环境安装Edge工具,并与迁移中心连接。 已在Edge上添加源端主机凭证。为确保采集过程具备充分的系统访问权限,主机凭证要求如下: Linux主机,请添加Root账号和密码作为采集凭证。 W
计费模式:建议选择按需计费。 带宽大小:推荐5 Mbit/s。 安装迁移工具Edge并连接迁移中心 安装Edge工具:在购买的ECS主机上,安装用于配合数据校验的工具Edge,方法请参见安装Linux版本的Edge工具。 注册Edge用户:在浏览器中访问Linux主机的网卡IP地址+端
钮,完成数据表导入。导入完成后,在库表清单页签可以查看导入的数据列表。 在左侧导航栏选择“实施>大数据校验”,进入大数据校验页面。首次使用大数据校验功能时,需要先选择并启用迁移工具。单击“选择并启用迁移工具”按钮,弹出选择迁移工具窗口。在下拉列表中,选择步骤3.与迁移中心连接成功的Edge。
完成用户注册后,建议每3-6个月更换一次密码。 操作步骤 使用在源端内网环境准备好的Windows主机,登录迁移中心管理控制台。 在左侧导航栏单击“迁移工具”,进入迁移工具页面。 在Windows区域,单击“下载安装包”,将Edge安装程序下载到Windows主机。 将下载的Edge安装包解压,双击E
凭证。如未提前添加凭证,请前往迁移工具Edge添加私有云凭证。凭证中的用户名、密码为vCenter的登录用户名和密码。 单击“确认”,内网发现任务创建完成,系统开始主机资源发现。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面,查看任务状态。 内网发现任务状态为成功后,即可进行主机深度采集。
单击“确认”,公网采集任务创建完成,系统自动开始资源采集。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面,查看任务状态。 采集任务状态为成功后,需要进行源端迁移准备度检查,确定源端主机是否满足迁移条件。 在源端内网环境中安装Edge工具并完成注册。 在资源采集页面的资源列表,单击主机或主机的资源数量,进入资源列表页面的主机页签。
凭证。如未提前添加凭证,请前往迁移工具Edge添加私有云凭证。凭证中的用户名、密码为vCenter的登录用户名和密码。 单击“确认”,内网发现任务创建完成,系统开始主机资源发现。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面,查看任务状态。 内网发现任务状态为成功后,即可进行主机深度采集。
凭证。如未提前添加凭证,请前往迁移工具Edge添加私有云凭证。凭证中的用户名、密码为vCenter的登录用户名和密码。 单击“确认”,内网发现任务创建完成,系统开始主机资源发现。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面,查看任务状态。 内网发现任务状态为成功后,即可进行主机深度采集。
创建目的端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“实施>大数据校验”
Windows主机迁移后数据盘缺失,如何解决? 问题描述 Windows主机迁移完成后,登录目的端主机发现磁盘数量与源端主机不一致,有数据盘缺失,但在目的端控制台查看磁盘数量正常。 问题分析 出现该问题,可能是因为源端主机的磁盘策略为共享磁盘脱机或者离线模式,迁移后会导致数据盘处于脱机状态。 解决方法
创建源端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建源端连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据) Hudi(有元数据)
填写连接源端ClickHouse集群的外网地址。可以在集群信息页面,查看外网地址。 参数配置完成后,单击“测试连接”,系统会校验配置信息并与云服务建立连接,测试通过代表与云服务连接成功。 测试连接通过后,单击“确认”按钮,创建云服务连接完成。 在连接管理页面,可以查看创建的连接列表以及基本信息。单击操作列的“修改连接”,可以修改连接参数配置。
迁移对源端和目的端有什么要求? 迁移会占用源端和目的端大量的QPS(每秒查询率)和带宽。因此,建议在迁移前先进行测试,以评估实际迁移过程中源端和目的端的QPS和带宽占用情况。如果占用率过高,请调整源端和目的端QPS和带宽限制,以确保对现有业务的影响最小化。 父主题: 存储迁移
创建目的端云服务连接 对大数据云服务数据进行一致性校验时,需要分别与源端和目的端云服务建立连接,用于数据查询和计算。 目前支持创建目的端连接的大数据云服务包括: 数据湖探索(DLI) CloudTable(ClickHouse) CloudTable(HBase) 操作步骤 登录迁移中心管理控制台。
用CSV文件中提供的密码进行自动登录。 脚本执行机环境配置 确保执行脚本的Linux主机上安装了以下必要的工具和命令: SSH工具:用于建立与远程主机的安全连接。 sed工具:用于编辑和修改/etc/hosts文件内容。 setsid命令:用于在SSH连接中避免交互需求(通常用于避免密码输入时的交互)。
开始性能采集后,您还可以进行如下操作: 查看采集数据 单击主机名称,进入主机详情页面,在性能信息区域,可以查看采集到的主机性能数据。其中,7天和30天最大值为每小时汇总的定时任务,采集时长需超过1小时才能获取数据。 单击操作列的“查看”,可以查看采集周期内每项数据的详细数值和曲线图。