检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
限速模式指的是限制秒级的流量上限,可能因为网络波动原因导致统计值的降低,实际统计的值可能会低于限速值大小。 限速模式只对灾备初始化阶段生效。 前提条件 已登录数据复制服务控制台。 已创建灾备任务且任务为非启动状态。 方法一 在“基本信息”页签的“限速信息”区域,单击“修改”。 在弹出的对话框中修改流速模式。
attempting to read next event 可能原因 任务中断时间太长,DRS历史数据文件已经清理,无法接续。 解决方案 请联系用户重建任务。 父主题: MySQL->MySQL实时迁移和同步
修改消费时间点 数据复制服务支持在消费的过程中,随时修改消费时间点,修改的时间点必须在订阅任务的时间范围内。一旦修改完消费时间点,那么下游SDK拉取到的增量数据从修改后的消费时间点开始。 本章节将详细介绍通过数据复制服务管理控制台修改消费时间点的操作步骤。 约束限制 数据订阅任务已启动且任务为“正常”状态。
照流类型的不同进行确定。 缺省值:application/json X-Auth-Token 是 String 从IAM服务获取的用户Token。 用户Token也就是调用获取用户Token接口的响应值,该接口是唯一不需要认证的接口。 请求响应成功后在响应消息头中包含的“X-Su
`password` IS NULL OR `password`=''; 执行以下SQL语句,删除掉源库密码为空的用户,或者给用户添加密码。 删除密码为空的用户 DROP USER ***@***; 给用户添加密码 ALTER USER ***@*** IDENTIFIED BY ***; 父主题:
300000 ms. 可能原因 目标Kafka为多可用区的Kafka实例,在某个可用区故障后,Kafka客户端在生产或消费消息时,可能会报上述错误。 解决方案 检查并修复Kafka分区状态。 然后在任务列表中,单击任务对应操作列的“重置”,重新提交任务。 父主题: Oracle为源实时同步
克隆任务创建成功后,新任务的弹性公网IP、私有IP与原任务不同,可能需要调整网络配置,确保克隆后的新任务和源库、目标库网络互通。 前提条件 已登录数据复制服务控制台。 已创建迁移任务。 操作步骤 在“实时迁移管理”页面的任务列表中,选择要克隆的任务,单击“操作 > 克隆任务”。 在弹出的“克隆任务
量迁移失败。 不通过原因 源数据库为只读备库,不存在binlog日志。 处理建议 建议更换源数据库,将GaussDB(for MySQL)实例主库作为源数据库后,重新进行预检查。 父主题: 数据库参数检查
producer. 可能原因 目标Kafka为多可用区的Kafka实例,在某个可用区故障后,Kafka客户端在生产或消费消息时,可能会报上述错误。 解决方案 检查并修复Kafka分区状态。 然后在任务列表中,单击任务对应操作列的“重置”,重新提交任务。 父主题: Oracle为源实时同步
DRS任务在迁移过程中由于不确定因素导致迁移任务失败,后台会进行多次断点续传的重试,无需人工干预。但有时候存在无法自动修复的场景,比如源日志被人为强制清理,导致无法继续迁移任务,则可通过重置功能,重新开始迁移而不用再次配置任务。 DRS目前支持以下迁移链路的重置: MySQL->MySQL MySQL->DDM
操作便捷、简单,实现数据库的迁移和同步“人人都会”。传统场景中,需要专业的技术背景,步骤复杂,技术门槛比较高。 周期短 仅需分钟级就能搭建完成迁移任务,让整个环境搭建“高效快速”。传统场景下需要人工部署,短则几天,长则上周或上月。 低成本 通过服务化迁移,免去了传统的DBA人力成本和硬件
前提条件 已登录数据复制服务控制台。 已创建迁移任务。 方法一 在“基本信息”页签的“限速信息”区域,单击“修改”。 图1 基本信息 在弹出的对话框中修改流速模式。 图2 修改流速模式 方法二 在“实时迁移管理”页面的迁移列表中,选择需要修改流速模式的任务,单击操作列的“更多 > 限速”,或“限速”。
是将字段的内容进行替换,并不是替换整个DML记录。如果一条DML记录中有很多大字段,这些字段只有部分字段的内容大小超过设置的过滤阈值,其他未超过过滤阈值的字段内容的累加值大于request.max.size的值,写入到Kafka的过程中仍然可能会超过目标Kafka的消息体上限,从而导致DRS报错。
DATAMOVE failed, cause by: GC overhead limit exceeded。 可能原因 源库单条数据过大。 迁移实例规格太小。 处理方法 查看任务状态是否正常。 任务状态正常,该报错为日志中显示,无需处理。 任务状态异常,执行2。 在管理控制台右上角,选择“工单
DDS->MongoDB 前提条件 已登录数据复制服务控制台。 迁移任务正常运行中。 暂停任务 在“实时迁移管理”页面的迁移列表中,选择要暂停的迁移任务,单击“操作 > 暂停”。 在弹出的“暂停任务”对话框中,选择“暂停日志抓取”后,单击“是”。 增量状态暂停任务时,仅暂停增量数据的回放、或者拉取加回放,在进行数据库割接前,请先结束任务。
使用order by子句代替 view、function等 名称长度 view的列名称不能超过64个字符 - - alter处理 最多255个字符 enum或set元素的总长度不能超过255个字符 - - 用户处理 最大64K 大小写 lower_case_table_names MySQL设置字母大小写是否敏感
考MySQL迁移使用须知,重建任务。 检查迁移使用的账号对源库的表是否有执行SHOW CREATE TABLE操作的权限,如果不具备则参考MySQL迁移使用须知,为源库迁移账户赋予操作权限,然后在任务列表中,单击任务对应操作列的“续传”,重新提交任务。 父主题: MySQL->MySQL实时迁移和同步
数据订阅 支持的数据源类型 数据订阅支持的数据源类型包括: RDS for MySQL实例 支持的订阅对象 数据订阅的订阅对象可以为:表级订阅。 数据订阅将增量数据细分为数据变更(Data Manipulation Language 简称DML)和结构变更(Data Definition
DDM->DDM 前提条件 已登录数据复制服务控制台。 灾备任务正常运行中。 暂停任务 在“实时灾备管理”页面的灾备列表中,选择要暂停的灾备任务,单击“操作”列的“暂停”。 在弹出的“暂停任务”对话框中,选择“暂停日志抓取”后,单击“是”。 暂停任务时,仅暂停增量数据的回放、或者拉取加回放,在进行数据库割接前,请先结束任务。
DRS任务表数量太多导致任务超时怎么办 当DRS任务表数量太多时,可能占用过多的内存等资源,导致在进行预检查、数据对比等操作时超时。针对这种情况,建议用户通过以下方式解决: 创建任务时选择大规格,表数量建议不超过5W张。 如果表数量过多(超过5W张),建议拆分多个任务进行同步。 父主题: