检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
目的端所在区域的项目。 虚拟私有云 若源端IP是192.168.X.X,则推荐创建的VPC网段是192.168.0.0/16,同时创建一个子网,网段也是192.168.0.0/16。 若源端IP是172.16.X.X,则推荐创建的VPC网段是172.16.0.0/12,同时创建一个子网,网段也是172
创建源端连接 创建源端云服务连接 创建源端组件连接 父主题: 大数据校验
如何解决迁移集群创建失败问题 问题描述 创建迁移集群时,集群状态列提示创建失败。 解决方法 单击集群状态列的“创建失败”,出现对应的原因和详情,请根据具体的错误信息进行处理。 部分常见的错误原因参见下表。如无法自行解决,请联系对应云服务技术支持人员或提交工单。 原因 描述 处理方法
strator权限的账号。 Linux系统:需要提供root账号。 采集原理: Windows系统:通过WinRM服务从Edge访问Windows主机,执行PowerShell脚本采集系统信息。 Linux系统:通过SSH协议从Edge访问Linux主机,将Shell脚本传输至/
分区大小,确保调整后与工作流配置的目的端规格一致。 图1 Linux磁盘分区调整 Linux支持LVM调整,可以选择物理卷和逻辑卷是否迁移以及调整大小。 Linux Btrfs文件系统暂时不支持磁盘分区调整。 Linux系统分区,swap分区是否迁移不可选,默认为“是”,必须进行迁移。
创建目的端连接 创建执行机连接 创建目的端云服务连接 创建目的端组件连接 父主题: 大数据校验
项目的名称和ID。 队列名称 输入完成准备工作时,创建的SQL队列名称/通用队列名称。 当配置SQL队列连接时,填写SQL队列名称。 当配置通用队列连接时,填写通用队列名称。 创建目的端连接完成后,在连接管理页面,可以查看已创建的连接列表。如有需要,可以单击列表操作列的“修改链接”对连接配置进行修改。
创建工具采集任务 Edge提供了多种类型的线下采集器,用于采集线下网络环境中的资源规格和配置信息。本节为您介绍创建线下工具采集任务的方法。 前提条件 已下载并安装Edge,并完成用户注册。 已安装待采集资源类型的采集器。 操作步骤 使用注册的用户名、密码登录Edge控制台,在左侧
自定义策略:如果IAM用户只需要拥有迁移中心 MgC部分操作权限,则使用自定义策略,参见MgC自定义策略。 创建用户并加入用户组 在IAM控制台创建用户,并将其加入1.创建用户组并授权中创建的用户组。 当IAM用户首次使用MgC的特定功能时,需要通过以下两种方式授予委托权限: 推荐方式:请
行迁移。该时间段以外,则迁移任务暂停。 - 工作流配置完成后,单击“下一步:确认并创建”按钮,进入确认并创建页面。 确认配置信息无误后,单击“确认创建工作流”,弹出启动工作流窗口,此时工作流已创建完成。 如果您希望立即开始迁移,则单击“确认”按钮,立即运行工作流。 如果您需要在标
选择待迁移资源所关联的应用。 迁移设置 区域 选择待迁移可用区所在Region,与创建的应用配置保持一致。 目的可用区 选择要迁移到目的端可用区,与创建的应用配置保持一致。 网络设置 当前只支持“保留源端配置”。 目的虚拟机创建策略 立即创建 工作流立即开始进行源端备份,源端各自独立备份完成后,立即开始生成镜像和目的端主机。
数据湖探索(DLI)组件配置参数,创建目的端统计任务。选择创建的DLI连接。 Doris连接 Doris组件配置参数。 创建源端统计任务时,选择源端Doris连接。 创建目的端统计任务时,选择目的端Doris连接。 HBase连接 HBas组件配置参数。 创建源端统计任务时,选择源端HBase连接。
创建血缘采集任务 前提条件 已完成元数据采集。 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“调研>大数据血缘”,进入大数据血缘页面。在页面左上角的当前项目下拉列表中选择迁移项目。 在血缘采集区域,单击“创建任务”,弹出创建血缘采集任务窗口。 根据实际作业类型,选择文件类型并配置对应参数。
阿里云云数据库ClickHouse 在创建Hive Metastore连接前,需要先获取连接Hive Metastore的IP地址和端口号。 在创建MaxCompute连接前,需要先获取MaxCompute服务所在地域的Endpoint信息。 在创建Doris连接前,需要先获取Doris集群部署的服务器IP地址和端口。
窗中的“查看更多”进行查看。 说明(可选) 您可以输入用于区分表组的说明。 参数配置完成后,单击“确认”按钮,创建表组完成。在表组列表,可以查看创建的表组信息。 表组创建完成后,即可导入数据表并加入表组。 导入数据表并加入表组 在表管理页面,选择库表清单页签。 单击列表上方的“表管理
创建存储迁移工作流 本节介绍如何使用存储迁移标准模板创建存储迁移工作流。 前提条件 已完成准备工作。 已创建集群。 (可选)已打通SFS 1.0、3.0和集群之间的网络 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“实施>迁移工作流”,进入迁移工作流页面。在页面左上角的当
系统盘容量取值范围为:40 G~1024 G 数据盘容量取值范围为:10 G~32768 G 当前仅支持Linux主机磁盘缩容,需确保缩容后容量大于源端实际使用量。 跨可用区迁移场景仅支持扩容,即使配置缩容,系统也会自动创建一个与源端磁盘容量相同的目的端磁盘。 父主题: 规格评估
创建并运行元数据同步任务 利用元数据连接,创建元数据同步任务,将源端数据库的库、表、字段信息同步至迁移中心。 支持创建元数据同步任务的连接类型如下: Hive Metastore连接 Doris连接 HBase连接 ClickHouse连接 Hudi(有元数据)连接 Hudi(无元数据)连接
限速的数值范围:0~1048576 MB/s 。 最多可以创建5条记录。 时区时间以目的端Region的当地时间为准。 工作流配置完成后,单击“下一步:确认并创建”按钮,进入确认并创建页面。 确认配置信息无误后,单击“确认创建工作流”,弹出启动工作流窗口,此时工作流已创建完成。 如果您希望立即开始迁移,则单击“确认”按钮,立即运行工作流。
已在源端内网环境安装Edge工具,并与迁移中心连接。 已在Edge上添加源端主机凭证。为确保采集过程具备充分的系统访问权限,主机凭证要求如下: Linux主机,请添加Root账号和密码做为采集凭证。 Windows主机,请添加Administrator账号和密码做为采集凭证。 操作步骤 登录迁移中心管理控制台。