检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
mktemp命令:用于创建临时文件或目录。 执行权限和用户权限配置 用户权限配置:确保执行脚本的用户具有对日志目录、CSV文件和hosts文件的读写权限。 脚本执行权限配置:确保update_hosts_linux.sh 和 rollback_hosts_linux.sh脚本文件具有执行权限。使用chmod
大数据数据迁移 数据迁移失败,提示超过DLI网管流控上限 部分表迁移失败,报错:CRC Check failed 部分表迁移失败,报错:no more field nodes for for field %s and vector %s
Linux系统使用“LF”作为换行符,但安装的脚本中使用了Windows系统的“CR LF”。这种格式不匹配导致采集时脚本推送到源端主机上执行失败。 解决方案 卸载当前安装的Edge,然后重新安装。 Edge重装后,再次进行主机深度采集。 父主题: 资源采集
Hive校验结果中的源端数据和目的端数据显示为“0”或“-1” 问题描述 对Hive进行大数据校验,校验任务执行成功,查看校验结果,发现部分字段的“源端数据”和“目的端数据”显示为“0”或“-1”。 问题分析 出现该问题可能是因为数值超出了Hive支持的数值范围。 在数据处理中,
需要进行本地采集,应避免连接迁移中心。Edge与迁移中心(MgC)连接后,本地采集功能将不再可用,Edge的主要功能转向与云端服务的协同工作,而不再执行本地资源采集。 建议在完成所有必要的本地采集工作后,再连接Edge到迁移中心,以利用云端服务进行迁移和管理工作。 主机资源发现方式 Edg
步骤一:下载并安装Edge 迁移工具Edge是一款专为配合MgC设计的软件,用于源端资源发现与信息采集,同时还提供了工作流模块,用于支持云端迁移工作流任务的执行。 操作步骤 建议在源端内网环境中准备一台Windows主机,用于安装迁移工具Edge,对该主机的要求以及Edge的安装方法请参见安装Windows版本的Edge。
连接迁移中心 将Edge与云端MgC控制台建立连接,协助MgC控制台进行资源采集和执行迁移工作流任务。 连接成功后,您可以在迁移中心控制台进行以下操作: 创建资源采集任务:通过公网发现源端多种类型资源,支持对主机、容器、对象存储和数据库等资源进行深度采集。 创建主机迁移工作流:进
默认为5985端口,Linux主机默认22端口,可根据实际情况修改。 如果端口填写错误,请修改为正确端口后重试。 如果端口填写正确,请继续执行步骤2.。 在安装Edge的主机,打开命令行窗口,使用telnet命令测试源端主机的端口是否可以访问。命令格式分别为:telnet {源端主机IP地址}
容器资源需要完成深度采集后,才可以进行迁移方案设计。 中间件、数据库、存储等资源可直接进行迁移方案设计。支持对AWS RDS(包括MySQL、MariaDB、Aurora、PGSQL、SQLServer、Oracle)和AWS DocumentDB数据库进行深度采集,以获取数据库更详细的信息。
全部配置”,搜索“https_port”参数获取。 创建阿里云云数据库 ClickHouse统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16.创建的表组。 任务类型请选择大数据组件中的“阿里云云数据库 ClickHouse”。 统计方式仅支持“全量校验”。
默认创建名称为“Delta-Lake-有元数据-4位随机数(字母和数字)”,也可以自定义名称。 执行机凭证 选择执行机的登录凭证。凭证的添加方法请参考添加资源凭证中的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口。 Spark客户端目录 填写Spark客户端的安装目录路径。
说明 在OBS、NAS和SMB存储系统之间进行异构迁移时,不同系统对文件夹和路径长度的限制存在不同。了解并遵守每个系统的对象长度限制是成功执行异构迁移的关键。根据具体的迁移方向,确保对象的路径长度符合目的端系统的要求,以避免迁移失败或数据不一致的问题。 不同存储系统对路径和文件夹长度的限制参见下表:
评估并承担启用该功能带来的风险。 启动快速模式 适用于无需增量同步的场景,可提高迁移效率。默认关闭,启用后工作流执行完全量复制步骤后,会直接跳过增量同步步骤,继续执行后续步骤。请根据您的需求谨慎选择。 企业项目 选择需要迁移到的企业项目。默认为“default”。 工作流配置完成
信息获取,对应参数为“集群访问地址”。 创建阿里云云数据库 ClickHouse统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16.创建的表组。 任务类型请选择大数据组件中的“阿里云云数据库 ClickHouse”。 统计方式仅支持“全量校验”。
配置。 容器资源需要先完成深度采集,再进行迁移方案设计。 中间件、数据库、存储等资源可直接进行迁移方案设计。支持对AWS RDS(包括MySQL、MariaDB、Aurora、PGSQL、SQLServer、Oracle)和AWS DocumentDB数据库进行深度采集,以获取数据库更详细的信息。
建的元数据同步任务列表以及参数配置信息。单击操作列的“更多>修改”,可以修改任务参数配置。 单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录,以及每条任务实例的状态和采集
该参数设置为true: 当子查询中数据不重复的情况下,执行关联子查询,不需要对子查询的结果去重。 当子查询中数据重复的情况下,执行关联子查询,会提示异常,必须对子查询的结果做去重处理,比如max(),min()。 该参数设置为false: 不管子查询中数据重复与否,执行关联子查询时,都需要对子查询的结果去重,比如max()
数据表并加入表组。 分别创建源端执行机连接和目的端执行机连接,方法请参考创建执行机连接。执行机凭证分别选择步骤4.在Edge侧添加的源端和目的端执行机凭证。 在MgC控制台,分别创建源端和目的端Delta统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16
数据表并加入表组。 分别创建源端执行机连接和目的端执行机连接,方法请参考创建执行机连接。执行机凭证分别选择步骤4.在Edge侧添加的源端和目的端执行机凭证。 在MgC控制台,分别创建源端和目的端Delta统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16
”,也可以自定义名称。 执行机凭证 选择步骤4.在Edge侧添加的目的端MRS执行机凭证。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 安装目录 填写MRS客户端的安装目录路径。即安装客户端时,“./install.sh” 所填写的地址。