检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
输入目的端接收文件的路径,格式为:/文件夹。 用户名 输入具有访问目的端文件系统所有文件权限的用户名,例如:administrator。 数据站点类型选择NAS_SMB时填写。 密码 输入用户名对应的密码。 Windows上的域 输入对应的域名。 说明: 只需输入.com之前的内容,例如:域名为test
您关心的是分区内数据的最新状态或最近一段时间内的数据变更,可以选择“更新时间”作为筛选条件。 创建时间:指分区被首次创建时的时间戳。如果您关心的是分区从创建开始到某个时间点内的数据,可以选择“创建时间”作为筛选条件。 分区上限:用于限制查询或处理的分区数量,避免不必要的全表扫描或
创建源端连接 创建源端连接是为了允许MgC Agent(原Edge)访问和读取源端阿里云 MaxCompute中存储的数据。 前提条件 已完成准备工作。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择在完成准备工作时创建的大数据迁移项目。 在左侧导航栏选择“实
创建目的端连接 创建执行机连接 创建目的端云服务连接 创建目的端组件连接 父主题: 大数据校验
输入目的端接收文件的路径,格式为:/文件夹。 用户名 输入具有访问目的端文件系统所有文件权限的用户名,例如:administrator。 数据站点类型选择NAS_SMB时填写。 密码 输入用户名对应的密码。 Windows上的域 输入对应的域名。 说明: 只需输入.com之前的内容,例如:域名为test
执行机凭证 选择执行机的登录凭证。凭证的添加方法请参考添加资源凭证中的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口。 Spark客户端目录 填写Spark客户端的安装目录路径。 环境变量地址 填写环境变量文件(配置文件)的绝对路径,例如:
创建迁移任务 元数据全量迁移 元数据增量感知 全量数据迁移 增量数据迁移 父主题: 大数据数据迁移(MaxCompute迁移到DLI)
迁移工具 选择在源端环境中部署的迁移工具Edge。 执行机凭证 选择执行机的登录凭证。凭证的添加方法请参考添加资源凭证中的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口。 Spark客户端目录 填写Spark客户端的安装目录路径。 环境变量地址
可用区(AZ)迁移有哪些注意事项? 密码一致性 如果源端Windows主机安装了 Cloudbase-Init 插件,会导致新下发的主机生成随机密码,从而与源端密码不一致,因此迁移前需要将 Cloudbase-Init 插件卸载。 账号余额 由于AZ迁移需要进行创建存储库、服务器云备份、整机
在使用大数据校验功能前,请务必先完成以下必要的准备工作。 创建项目 通过创建独立的项目,可以将不同的操作场景进行区分和隔离,从而实现更好的组织管理和资源分配。创建方法请参考项目管理。 准备迁移工具Edge 在启用大数据校验功能前,需要先在源端环境中安装用于配合大数据校验的迁移工具Edge。大数据校
元数据。 前提条件 已创建元数据连接。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择创建的大数据迁移项目。 在左侧导航栏选择“调研>大数据血缘”,进入大数据血缘页面。 在元数据采集区域,单击“创建任务 > 元数据同步”按钮,右侧弹出创建任务-元数据同步窗口。
登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择在完成准备工作时创建的大数据迁移项目。 在左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。 单击页面右上角的“连接管理”按钮,进入连接管理页面。 单击页面右上角的“创建目的端连接”按钮,右侧弹出新增连接窗口。 连接类型选择“数据湖探索
创建血缘采集任务 前提条件 已完成元数据采集。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择创建的大数据迁移项目。 在左侧导航栏选择“调研>大数据血缘”,进入大数据血缘页面。 在血缘采集区域,单击“创建任务”,弹出创建血缘采集任务窗口。 根据实际作业类型,选择文件类型并配置对应参数。
模板中目标组件类型和上游组件类型支持的类型包括HiveSQL、MaxCompute。 模板中单元格不允许存在公式,否则会导致解析失败。 模板参数填写完成并保存后,单击窗口的“添加文件”,将填写后的模板文件上传至迁移中心。 文件大小不能超过100 MB。 单击“确认”,创建血缘采集任务完成。系统自动开始进行血缘采集。
标准相同的分组。 在创建用于MaxCompute迁移到DLI数据校验的表组时,建议先创建count、sum、allsum等基本校验标准的表组,在确保基本校验任务的校验标准已达标,并且源端和目的端数据量一致后,再创建content校验标准的表组进行详细的内容校验,以确保的目的端数据与源数据在数据量和内容上一致。
连接地址 填写vCenter的IP地址。 端口 填写访问vCenter的端口。 凭证 选择vCenter的凭证。如下拉列表为空,请前往MgC Agent添加私有云凭证。凭证中的用户名、密码为vCenter的登录用户名和密码。 应用 可选参数,选择采集到的资源要加入的应用,通过应用可以将资
选择VMware扫描,在连接地址填写vCenter的IP地址,并选择vCenter的凭证。如未提前添加凭证,请前往迁移工具Edge添加私有云凭证。凭证中的用户名、密码为vCenter的登录用户名和密码。 单击“确认”,内网发现任务创建完成,系统开始主机资源发现。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面,查看任务状态。
选择VMware扫描,在连接地址填写vCenter的IP地址,并选择vCenter的凭证。如未提前添加凭证,请前往迁移工具Edge添加私有云凭证。凭证中的用户名、密码为vCenter的登录用户名和密码。 单击“确认”,内网发现任务创建完成,系统开始主机资源发现。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面,查看任务状态。
中产生的临时数据。方法请参考配置DLI作业桶。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择在完成准备工作时创建的大数据迁移项目。 在左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。 单击页面右上角的“创建迁移任务”按钮,右侧弹出创建迁移任务窗口。
单击操作列的“更多>修改”,可以修改任务参数配置。 单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录,以及每条任务实例的状态和采集结果。当元数据同步任务的实例状态为“已