检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何关闭集合均衡器Balancer 使用DRS服务进行MongoDB数据库分片集群到分片集群的迁移,必须关闭要迁移集合的均衡器Balancer。 DDS集群关闭集合均衡器Balancer需调用API接口,参考设置集群均衡开关,具体方法可咨询DDS技术支持。自建MongoDB设置可参考如下步骤
全量阶段失败报错,关键词“Error writing file *** (errno: 28 - No space left on device)” 场景描述 全量迁移或同步期间DRS任务报错,日志提示信息:service DATAMOVE failed, cause by: apply
增量阶段失败报错,关键词“you need (at least one of) the SUPER privilege(s) for this operation” 场景描述 增量迁移期间DRS任务报错,日志提示信息:service INCREMENT failed, cause
增量阶段失败报错,关键词“Operation not allowed when innodb_force_recovery > 0” 场景描述 增量迁移或同步期间DRS任务报错,日志提示信息:service INCREMENT failed, cause by: write table
全量或增量阶段失败报错,关键词“Can not read response from server” 场景描述 全量或增量阶段,DRS迁移或同步任务报错,日志提示信息:service LOGMANAGER failed, cause by: Can not read response
操作系统 CentOS 7.6 64 - 系统盘 通用型SSD 40GiB - 数据盘 超高IO 100GiB - 弹性IP 现在购买 因为迁移任务会选择“公网网络”,因此此处需要购买弹性IP。 DDS DDS 实例名 dds-test 自定义,易理解可识别。
全量阶段失败报错,关键词“Access denied; you need (at least one of) the SUPER privilege(s) for this operation” 场景描述 全量迁移期间DRS任务报错,日志提示信息:service DATAMOVE
校验源数据库参数max_wal_senders PostgreSQL同步时,源数据库“max_wal_senders”参数值必须大于当前已使用的复制槽数量。否则,可能会导致同步失败。 不通过原因 源数据库参数“max_wal_senders”小于或等于当前已使用的复制槽数量 处理建议
如何批量导出、导入事件(event)和触发器(trigger) 在进行MySQL到MySQL的迁移时,若任务结束后发现迁移日志中提示迁移事件和触发器失败,可手动迁移。 本小节主要介绍批量导出导入事件和触发器的具体操作。 从源库批量导出触发器。 在源库执行以下语句,获取TRIGGER_SCHEMA
全量同步失败报错,关键词“permission denied for schema ***” 场景描述 全量同步期间DRS任务报错,同步日志界面提示:service DATAMOVE failed, cause by: retry structures failed events=
全量或增量阶段失败报错,关键词“Illegal mix of collations (utf8mb4_0900_ai_ci,IMPLICIT) and (utf8mb4_general_ci,IMPLICIT) for operation” 场景描述 全量或增量阶段,DRS迁移或同步任务报错
全量同步失败报错,关键词“password must not equal user name” 场景描述 全量同步期间DRS任务报错,同步日志界面提示:service DATAMOVE failed, cause by: retry structures failed events
MySQL迁移中Definer强制转化后如何维持原业务用户权限体系 Definer的使用主要应用在视图、存储过程、触发器、事件等对象里,Definer并不会限制对象被调用的权限,但会限制对象访问数据库的权限。本场景下,用户在MySQL迁移过程中选择了“所有Definer迁移到该用户下
为什么实时灾备任务不支持触发器(TRIGGER)和事件(EVENT) 数据库的触发器(TRIGGER)和事件(EVENT)操作会记录binlog,DRS通过解析binlog同步数据,如果业务侧写入与触发器、事件存在同样对象,就会发生重复执行导致数据不一致或者任务失败,所以在灾备场景下
全量迁移失败报错,关键词“GC overhead limit exceeded” 场景描述 MongoDB->DDS实时迁移场景,全量迁移报错,日志提示信息:service DATAMOVE failed, cause by: GC overhead limit exceeded。
全量同步失败报错,关键词“GC overhead limit exceeded” 场景描述 全量同步期间DRS任务报错,同步日志界面提示:service DATAMOVE failed, cause by: GC overhead limit exceeded 可能原因 业务存在大数据字段导致同步任务内存超限
增量同步失败报错,关键词“Failed to construct kafka producer. ” 场景描述 Oracle->Kafka同步任务增量阶段报错,同步日志界面提示:service INCREMENT failed, cause by: Failed to construct
增量同步失败报错,关键词“Topic *** not present in metadata after 300000 ms” 场景描述 Oracle->Kafka同步任务增量阶段报错,同步日志界面提示: service INCREMENT failed, cause by: Topic
增量迁移失败报错,关键词“Command failed with error *** (***):***. The full response is {***}” 场景描述 MongoDB->DDS实时迁移场景,增量迁移报错,日志提示信息:service INCREMENT failed
增量阶段失败报错,关键词“Failed to read file header from” 场景描述 增量迁移或同步期间DRS任务报错,日志提示信息:service INCREMENT failed, cause by: Failed to read file header from