检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
自定义参数说明 在目的端配置中,支持配置的自定义参数及说明请参见表1和conf参数说明。 表1 支持的自定义参数说明 参数名称 取值范围 说明 是否必填 spark.dli.metaAccess.enable - 填写true。
大对象迁移:如果子任务中包含了大型文件或对象,可能需要较长时间来迁移。 后台处理:即使进度没有实时更新,迁移过程也可能在后台继续进行。进度条的更新可能存在延迟。 解决方案 请耐心等待,尤其是当迁移包含大量数据时。 如果长时间未更新,可以联系技术支持人员以排查潜在问题。
其中,如下参数值为必填字段。
其中,如下参数值为必填字段。
创建源端云服务连接 对大数据云服务数据进行一致性校验时,需要分别与源端和目的端云服务建立连接,用于数据查询和计算。 目前支持创建源端连接的大数据云服务包括: MaxCompute 阿里云云数据库ClickHouse 操作步骤 登录迁移中心管理控制台。
指定时间校验:用户可以选择一个时间段,校验该时间段内的数据。只能选择当前时间之前的时间段进行校验。
在PowerShell中输入如下命令: New-PSSession 如果配置成功,则该命令会在本地计算机上创建会话,并返回一个会话对象。
创建并运行元数据同步任务 利用元数据连接,创建元数据同步任务,将源端数据库的库、表、字段信息同步至迁移中心。
创建并运行元数据同步任务 利用元数据连接,创建元数据同步任务,将源端数据库的库、表、字段信息同步至迁移中心。
Hive校验的sum统计结果显示未达标 问题描述 对Hive进行大数据校验,Hive中的double字段保存的值为 1.7976931348623157E308 和 -1.7976931348623157E308 时 sum 统计结果显示未达标。
创建并运行数据湖元数据同步任务 利用创建的Delta Lake元数据连接,将源端数据库的库、表、字段信息同步至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。
创建并运行数据湖元数据同步任务 利用创建的Delta Lake元数据连接,将源端数据库的库、表、字段信息同步至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。
在资源配置明细区域,单击主机资源操作列的“更改目的端规格”,右侧弹出资源详情窗口。 单击主机规格后的“更改规格”,可以修改目的端主机规格和镜像。 单击磁盘对应的目的端规格处的“更改规格”,可以修改目的端磁盘的存储类型和资源总用量(磁盘容量)。
账号余额 由于AZ迁移需要进行创建存储库、服务器云备份、整机镜像、按需创建目的端等操作,因此迁移时需要确保账号余额充足。 父主题: 可用区迁移
迁移工作流除了“开始迁移”、“开始同步”两个阶段运行时间比较久以外,其它步骤一般运行不会超过3分钟。如果长时间卡在某一步,可能是因为MgC Agent(原Edge)上报结果给MgC的过程中丢失。
未提前创建应用,单击“新建应用”,输入自定义的应用名称和描述;根据实际需求,选择业务场景、使用场景以及目的端区域,单击“创建”按钮,应用创建成功。 选择应用后,单击“确定”。在各资源的已关联应用列,查看资源所关联应用。
migration task failed 'SMS.xxxx' 问题描述 主机迁移工作流进行到全量复制/增量同步步骤时失败,提示失败原因为:SMS-Workflow.0503:SMS migration task failed 'SMS.xxxx' 问题分析 在迁移过程中,源端会和目的端服务器建立一个
OBS文件不存在或已过期。 重新上传文件,或重命名文件后再上传。 MQ Sheet中生产者和消费者环境不一致。 请检查导入文件MQ Sheet中生产者和消费者环境是否一致。 MQ Sheet中生产者和消费者服务或微服务在Application Sheet中不存在。
查看并导出校验结果 当源端与目的端的统计任务都执行完成后,在校验结果页面可以查看并导出任务的执行结果。校验结果将按照任务开始执行的日期进行分批,如果单日多次执行校验任务,系统只会保留最后一次的校验结果,之前的执行结果会被后续的执行所覆盖。 前提条件 已创建统计任务并执行校验。
查看并导出校验结果 当源端与目的端的统计任务都执行完成后,在校验结果页面可以查看并导出任务的执行结果。校验结果将按照任务开始执行的日期进行分批,如果单日多次执行校验任务,系统只会保留最后一次的校验结果,之前的执行结果会被后续的执行所覆盖。 前提条件 已创建统计任务并执行校验。