检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
可以对采集到的主机、数据库、存储等信息进行调研评估,为用户上云提供配置推荐和方案设计。 可视化管理 为了让用户对迁移进度一目了然,迁移中心提供一站式工作流管理迁移进度,用户可实时管理和监测整个迁移过程。 数据安全 数据采集 迁移中心为了确保采集数据的安全性,采集数据时只会读取源端
网络配置 迁移准备度检查失败,失败原因:主机IP或端口不可达 迁移准备度检查失败,失败原因:用户名和密码错误 迁移准备度检查失败,失败原因:下发命令到Edge失败 迁移准备度检查失败,失败原因:主机端口不可达、防火墙规则不正确或访问权限不足 深度采集失败,失败原因:源端winrm服务没开启或IP无法连通或端口不通
使用须知 元数据迁移:只需要配置一条连接到DLI SQL队列的连接。 数据迁移:需要配置两条连接,分别为连接到DLI SQL队列的连接和连接到DLI通用队列的连接。 前提条件 已完成准备工作。 操作步骤 登录迁移中心控制台。 在左侧导航栏选择“实施>大数据数据迁移”,进入大数
NAS到NAS迁移和割接方案 概述 适用场景:适用于NAS到NAS迁移过程中源端业务持续运行的场景。 目标:通过多次同步方案迁移增量对象数据,减少源端和目的端数据差异,确保数据迁移的准确性和业务连续性。 源端支持的类型:NAS_SMB、NAS_NFS_V3_MOUNT、NAS_N
选择对象存储批量迁移模板,单击“查看步骤详情”,可以查看该模板所包含的迁移阶段和步骤,以及每个阶段和步骤的详细描述。其中,步骤类型为“自动”,表示该步由系统自动完成。单击“开始配置”按钮,进行工作流配置。 在基础信息区域,输入自定义的工作流名称和描述。 在迁移方案区域,选择创建的对象存储迁移方案。选择
您可以通过以下两种方式查看迁移进度: 在工作流列表中,单击工作流名称,进入工作流详情页面,可以查看工作流包含的每台主机的迁移进度详情。 当主机迁移进度进行到“全量复制”和“增量同步”步骤时,如图1所示,单击任务详情(即目的端名称),可以直接跳转到SMS控制台的对应迁移任务详情页面,查看迁移进度。 图1 主机迁移阶段
自定义参数说明 在目的端配置中,支持配置的自定义参数及说明请参见表1和conf参数说明。 表1 支持的自定义参数说明 参数名称 取值范围 说明 是否必填 spark.dli.metaAccess.enable - 填写true。 是 spark.dli.job.agency.name
安装Edge的主机时间设置与当地标准时间不一致 在安装Edge的Windows主机上,打开“日期和时间”设置。 在“日期和时间”设置界面,开启“自动设置时间”,然后单击“同步”按钮,触发一次时间同步。 确保时区和时间设置正确,与当地标准时间一致后,返回Edge控制台,重新尝试查询MgC迁移项目。
PowerShell 版本和依赖项要求 PowerShell 远程处理依赖于 Windows 远程管理 (WinRM),由 Windows Management Framework (WMF) 提供。 在 PowerShell 上运行远程会话,本地计算机和远程计算机必须满足以下要求:
在左侧导航栏的“配置管理 > 项目管理”页签可以查看和管理已创建的项目。 创建项目完成后,参考连接迁移中心,将Edge工具与云端MgC控制台建立连接。 连接成功后,需要在Edge上分别添加源端“大数据-MaxCompute”凭证和目的端“大数据-数据湖搜索(DLI)”凭证,认证方式
格式为“{MC项目名},{表名}”,其中MC项目名代表MaxCompute项目名称,表名代表具体的表名称。 须知: 每行的“MC项目名”和“表名”之间使用英文逗号隔开,不要使用空格或其他分隔符。 每添加完一个表的信息后,使用回车键换行。 完成所有表信息的添加后,保存CSV文件的更改。
2024/06/06 14:50(现在)的增量数据。 如果勾选“指定日期”,将只迁移指定日期内的增量数据。 分区筛选方式 根据数据的分区属性来选择和检索数据。默认为更新时间。 更新时间:筛选出最近或在特定时间段内有更新的数据。 创建时间:筛选出在特定时间窗口内创建的数据。 MaxCompute参数
创建统计任务并执行校验 利用创建的源端连接和目的端连接,分别创建源端和目的端统计任务,获取源端和目的端的数据信息,以便于进行数据校验。 支持的大数据组件和统计方式说明请参见大数据校验概述。 注意事项 创建的源端统计任务和目的端统计任务的统计方式必须保持一致。 HBase安全集群任
xml,mapred-site.xml和hbase-site.xml等5个文件。 安全集群需要上传core-site.xml,hdfs-site.xml,yarn-site.xml,krb5.conf,user.keytab,mapred-site.xml和hbase-site.xml等7个文件。
创建源端连接 创建源端连接是为了允许迁移工具Edge访问和读取源端阿里云 MaxCompute中存储的数据。 前提条件 已完成准备工作。 操作步骤 登录迁移中心控制台。 在左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。在页面左上角的当前项目下拉列表中选择在完成准备工作时所创建的迁移项目。
方式添加,方法请参考导入数据表并加入表组。 分别创建源端执行机连接和目的端执行机连接,方法请参考创建执行机连接。执行机凭证分别选择步骤4.在Edge侧添加的源端和目的端执行机凭证。 在MgC控制台,分别创建源端和目的端Hive统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤步骤16
选择虚拟私有云所包含的子网,子网网段必须在所选VPC网段范围内。 安全组 所选安全组需要满足: Windows系统开放8899端口、8900端口和22端口。 Linux系统开放22端口。 企业项目 将购买的主机加入商用生产企业项目。默认项目为default。 企业项目管理提供了一种按企
> 项目管理”页签可以查看和管理已创建的项目。 创建项目完成后,参考连接迁移中心,将Edge工具与云端MgC控制台建立连接。 连接成功后,需要在Edge上分别添加源端“大数据-MaxCompute”凭证、目的端“大数据-Hive Metastore”凭证和目的端“MRS执行机”凭证