检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
源库实例ChangeStream接口是否可用 MongoDB->DDS迁移场景 表1 源库实例ChangeStream接口是否可用 预检查项 源库实例ChangeStream接口是否可用。 描述 检查源库实例ChangeStream接口是否可用。 不通过提示及处理建议 不通过原因
源库CDC数据保留时间是否足够 检查Microsoft SQL Server源库CDC数据保留时间是否足够。源数据库CDC数据保留时间不足1天,会导致增量同步异常。请修改为1440分钟(1天)或以上,建议4320分钟(3天)。 不通过原因 源库CDC数据保留时间太短,不足1天,会导致增量同步异常。
源数据库实例状态是否正常 DRS在预检查阶段,会对提供的源数据库实例状态进行检查。 不通过原因 源数据库实例状态异常,实例不可用。 处理建议 源数据库状态异常,DRS无法访问,等待数据库实例状态正常后,重新进行预检查。 父主题: 源库实例状态检查
limit exceeded。 可能原因 源库单条数据过大。 迁移实例规格太小。 处理方法 查看任务状态是否正常。 任务状态正常,该报错为日志中显示,无需处理。 任务状态异常,执行2。 在管理控制台右上角,选择“工单 > 新建工单”,联系客服解决。 父主题: MongoDB->DDS实时迁移
全量阶段失败报错,关键词“temp table: *** not exist” 场景描述 全量迁移或同步期间DRS任务报错,日志提示信息:service DATAMOVE failed, cause by: apply event=[type=table_rename_or_copy
迁移任务只支持按需计费,任务结束后即停止计费。 前提条件 已登录数据复制服务控制台。 迁移任务未结束。 结束任务 在“实时迁移管理”页面的迁移列表中,选择要结束的迁移任务,单击操作列“结束”。 在弹出框中单击“是”,提交结束任务。 一般情况下,结束任务功能可以确保特殊对象迁移的完整性(触发器、事件会在结束任务阶段迁移)。
工作。在正式使用数据复制服务之前,请先阅读以确保您已完成创建备份迁移任务所需的各项准备工作。 备份文件准备 请参见《数据复制服务备份迁移》中各方案下的“使用须知”章节。 数据库恢复模式设置 仅进行全量备份迁移时,对数据库的恢复模式没有要求。 进行全量+增量备份迁移时,数据库备份文
增量阶段失败报错,关键词“not illegal for mariaDb gtid position” 场景描述 增量迁移或同步期间DRS任务报错,日志提示信息:service INCREMENT failed, cause by: %s not illegal for mariaDb
全量同步失败报错,关键词“column *** of relation *** does not exist” 场景描述 全量同步期间DRS任务报错,同步日志界面提示:service DATAMOVE failed, cause by: apply event=[type=table_data
源库指定名称的复制槽是否存在 指定复制槽时,指定名称的复制槽是由DRS在启动后自动创建的,不可以是源数据库中已经存在的复制槽。 不通过原因 用户指定的复制槽在源数据库中已存在。 处理建议 请在源数据库中删除该名称的复制槽,或着指定其他源数据库不存在的复制槽名称。 父主题: 数据库参数检查
time_zone的一致性检查 源数据库和目标数据库的time_zone参数不一致,可能会导致迁移失败。 不通过原因 源数据库和目标数据库的参数time_zone或system_time_zone不一致。 处理建议 修改源数据库或者目标数据库的time_zone(timezone
源数据库分片键配置检查 MongoDB迁移场景 表1 源数据库分片键配置检查 预检查项 源数据库分片键配置检查。 描述 检查用户提供的目标数据库账号权限是否符合迁移要求,若权限不够,会导致迁移失败。 不通过提示及处理建议 待确认原因:源数据库是副本集,没有分片键配置。 处理建议:
t、multilinestring、multipolygon。源数据库表中存在上述不支持的表字段类型,导致迁移失败。 不通过提示及处理建议 不通过原因:源数据库表含有不支持的表字段类型。 处理建议:删除表中不支持的字段类型所在列,或者选择不迁移这张表。 父主题: 数据库参数检查
不通过原因:同步对象中存在包含CASCADE、SET NULL、SET DEFAULT之类引用操作的外键。这些关联操作会导致更新或删除父表中的行会影响子表对应的记录,并且子表的相关操作并不记录binlog。导致DRS无法同步,子表数据存在不一致。 处理建议:建议删除子表中包含CASCADE、SET
检查源库的max_allowed_packet参数 MySQL、TaurusDB为源场景 表1 检查源库的max_allowed_packet参数 预检查项 检查源库的max_allowed_packet参数。 描述 源库的max_allowed_packet参数值过小,可能会导致数据迁移失败。
检查迁移使用的账号对源库的表是否有执行SHOW CREATE TABLE操作的权限,如果不具备则参考MySQL迁移使用须知,为源库迁移账户赋予操作权限,然后在任务列表中,单击任务对应操作列的“续传”,重新提交任务。 父主题: MySQL->MySQL实时迁移和同步
管理工作,而是创建用户并使用其进行日常管理工作。 用户 由账号在IAM中创建的用户,是云服务的使用人员,具有身份凭证(密码和访问密钥)。 在我的凭证下,您可以查看账号ID和用户ID。通常在调用API的鉴权过程中,您需要用到账号、用户和密码等信息。 区域 区域指云资源所在的物理位置
可能原因 目标库表执行DDL导致目标库表结构和源库不一致 解决方案 请联系客户目标库运维工程师,修改目标库表结构和源库保持一致。 完成后在任务列表中,单击任务对应操作列的“续传”,重新提交任务。 父主题: MySQL->MySQL实时迁移和同步
全量同步失败报错,关键词“GC overhead limit exceeded” 场景描述 全量同步期间DRS任务报错,同步日志界面提示:service DATAMOVE failed, cause by: GC overhead limit exceeded 可能原因 业务存在大数据字段导致同步任务内存超限。
增量同步失败报错,关键词“PL/pgSQL function *** line *** at SQL statement” 场景描述 增量同步期间DRS任务报错,同步日志界面提示:service INCREMENT failed, cause by: insert %s failed:tid: