检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
量迁移失败。 不通过原因 源数据库为只读备库,不存在binlog日志。 处理建议 建议更换源数据库,将GaussDB(for MySQL)实例主库作为源数据库后,重新进行预检查。 父主题: 数据库参数检查
是将字段的内容进行替换,并不是替换整个DML记录。如果一条DML记录中有很多大字段,这些字段只有部分字段的内容大小超过设置的过滤阈值,其他未超过过滤阈值的字段内容的累加值大于request.max.size的值,写入到Kafka的过程中仍然可能会超过目标Kafka的消息体上限,从而导致DRS报错。
操作便捷、简单,实现数据库的迁移和同步“人人都会”。传统场景中,需要专业的技术背景,步骤复杂,技术门槛比较高。 周期短 仅需分钟级就能搭建完成迁移任务,让整个环境搭建“高效快速”。传统场景下需要人工部署,短则几天,长则上周或上月。 低成本 通过服务化迁移,免去了传统的DBA人力成本和硬件
producer. 可能原因 目标Kafka为多可用区的Kafka实例,在某个可用区故障后,Kafka客户端在生产或消费消息时,可能会报上述错误。 解决方案 检查并修复Kafka分区状态。 然后在任务列表中,单击任务对应操作列的“重置”,重新提交任务。 父主题: Oracle为源实时同步
前提条件 已登录数据复制服务控制台。 已创建迁移任务。 方法一 在“基本信息”页签的“限速信息”区域,单击“修改”。 图1 基本信息 在弹出的对话框中修改流速模式。 图2 修改流速模式 方法二 在“实时迁移管理”页面的迁移列表中,选择需要修改流速模式的任务,单击操作列的“更多 > 限速”,或“限速”。
DDS->MongoDB 前提条件 已登录数据复制服务控制台。 迁移任务正常运行中。 暂停任务 在“实时迁移管理”页面的迁移列表中,选择要暂停的迁移任务,单击“操作 > 暂停”。 在弹出的“暂停任务”对话框中,选择“暂停日志抓取”后,单击“是”。 增量状态暂停任务时,仅暂停增量数据的回放、或者拉取加回放,在进行数据库割接前,请先结束任务。
使用order by子句代替 view、function等 名称长度 view的列名称不能超过64个字符 - - alter处理 最多255个字符 enum或set元素的总长度不能超过255个字符 - - 用户处理 最大64K 大小写 lower_case_table_names MySQL设置字母大小写是否敏感
DDM->DDM 前提条件 已登录数据复制服务控制台。 灾备任务正常运行中。 暂停任务 在“实时灾备管理”页面的灾备列表中,选择要暂停的灾备任务,单击“操作”列的“暂停”。 在弹出的“暂停任务”对话框中,选择“暂停日志抓取”后,单击“是”。 暂停任务时,仅暂停增量数据的回放、或者拉取加回放,在进行数据库割接前,请先结束任务。
考MySQL迁移使用须知,重建任务。 检查迁移使用的账号对源库的表是否有执行SHOW CREATE TABLE操作的权限,如果不具备则参考MySQL迁移使用须知,为源库迁移账户赋予操作权限,然后在任务列表中,单击任务对应操作列的“续传”,重新提交任务。 父主题: MySQL->MySQL实时迁移和同步
数据订阅 支持的数据源类型 数据订阅支持的数据源类型包括: RDS for MySQL实例 支持的订阅对象 数据订阅的订阅对象可以为:表级订阅。 数据订阅将增量数据细分为数据变更(Data Manipulation Language 简称DML)和结构变更(Data Definition
可能原因 全量数据迁移期间用户在源数据库删除database。 源库迁移账户对源库的database没有操作权限。 解决方案 请联系源数据库管理员检查源库database是否删除,如果database被删除,可参考链路使用须知重建任务。 检查迁移使用的账户对源库的表是否有执行SHOW CREATE
增量阶段,DRS会把源数据库日志中的增量数据解析成SQL在目标数据库中执行,一般总连接数小于64个,其中: DDL会单连接串行执行,执行DDL时,不会有其他DML执行。 DML最多会有64个连接(短连接,默认超时时间30秒),其中DML只是简单的insert、update、delete、replace语句。
排序查询等。 源数据库的mongod服务和其他服务同时部署在一台机器上,而且没有设置cacheSizeGB的大小,这种情况下,如果因为其他服务消耗掉内存导致不能给wiredTiger引擎保证的内存,则会出现内存溢出的情况。 一般默认情况下,mongod的wiredTiger引擎可以使用整个机器内存减一的50%(3
DRS任务表数量太多导致任务超时怎么办 当DRS任务表数量太多时,可能占用过多的内存等资源,导致在进行预检查、数据对比等操作时超时。针对这种情况,建议用户通过以下方式解决: 创建任务时选择大规格,表数量建议不超过5W张。 如果表数量过多(超过5W张),建议拆分多个任务进行同步。 父主题:
全量数据迁移期间用户在源数据库删除database或table。 源库迁移账户对源库的database或table没有操作权限。 解决方案 请联系源数据库管理员检查源库database和table是否删除,如果已删除,可参考MySQL迁移使用须知,重建任务。 检查迁移使用的账号对源库的表是否有执行SHOW
考MySQL迁移使用须知,重建任务。 检查迁移使用的账号对源库的表是否有执行SHOW CREATE TABLE操作的权限,如果不具备则参考MySQL迁移使用须知,为源库迁移账户赋予操作权限,然后在任务列表中,单击任务对应操作列的“续传”,重新提交任务。 父主题: MySQL->MySQL实时迁移和同步
or crashed 可能原因 迁移期间DRS进程异常终止。 解决方案 用户无需关注,DRS守护进程会自动恢复任务,迁移和同步业务不受影响,数据会断点续传。如果任务已异常,请在任务列表中,单击任务对应操作列的“续传”,重新提交任务。 父主题: MySQL->MySQL实时迁移和同步
重置同步位点 对于MySQL->GaussDB(DWS)的实时同步链路,DRS支持增量位点重置功能,可根据用户选择的重置位点时间,将同步任务调整到问题发生之前,重新同步。 约束限制 目前仅支持引擎为MySQL->GaussDB(DWS)的同步任务支持重置位点。 任务在增量阶段时,需要先暂停任务,再进行重置位点。
任务克隆时,源和目标数据库密码信息不会被克隆,克隆后的新任务需再次输入。 克隆任务时,数据过滤中的高级设置信息不会被克隆,克隆后的新任务需重新进行设置。 不支持多对一任务的克隆。 对于变更中的任务进行克隆时,如果变更信息已存入数据库,克隆任务与变更后配置保持一致。 克隆任务创建成功后,新任务的弹性公网IP、私有I
DRS是否支持只迁移表结构不迁移数据 DRS是用于数据实时传输的云服务,暂不支持只迁移结构而不迁移数据。各链路支持的对象范围可在具体链路说明查看。 实时迁移方案概览 实时同步方案概览 实时灾备方案概览 父主题: 产品咨询