检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
自定义,易理解可识别。 数据库版本 MySQL 5.7 - 实例类型 单机 本示例中为单机。 实际使用时,为提升业务可靠性,推荐选择主备RDS实例。 存储类型 SSD云盘 - 可用区 可用区一 本示例中为可用区一。 实际业务场景推荐选择主备RDS实例,此时建议将两个实例创建在不同的可用区,提升业务可靠性。
本章节将以MySQL到RDS for MySQL的迁移为示例,介绍在VPC网络场景下,通过数据复制服务管理控制台配置数据迁移任务的流程,其他存储引擎的配置流程类似。 VPC网络适合云上同Region数据库之间的迁移。 在数据复制服务中,数据库迁移是通过任务的形式完成的,通过创建任务
源数据库参数server_id是否符合增量迁移要求 源数据库参数log_slave_updates检查 源数据库的GTID功能检查 源数据库是否存在使用不支持的存储引擎的表 源数据库是否为GaussDB(for MySQL)备库 源端表结构是否存在换行 源数据库和目标数据库的字符集是否一致 time_zone的一致性检查
源数据库中的表名、视图名不能包含:'<>/\"以及非ASCII字符。 支持选择表级、库级或实例级(全部迁移)。 支持数据库、表、用户、视图、索引、约束、函数、存储过程、触发器(TRIGGER)和事件(EVENT)的迁移。 仅支持MyISAM和InnoDB表的迁移。 不支持系统库的迁移以及事件状态的迁移。
MySQL->GaussDB(PG兼容性模式)增量DDL使用的是B兼容性模式的DDL语法,可能会导致增量同步失败。 由于浮点型数据是采用近似值存储,而不是作为精确值存储,此外操作系统平台和底层实现也对浮点型数据有影响,因此FLOAT,DOUBLE类型的数据是不精确的,所以在MySQL和Gauss
MySQL->GaussDB(PG兼容性模式)增量DDL使用的是B兼容性模式的DDL语法,可能会导致增量同步失败。 由于浮点型数据是采用近似值存储,而不是作为精确值存储,此外操作系统平台和底层实现也对浮点型数据有影响,因此FLOAT,DOUBLE类型的数据是不精确的,所以在MySQL和Gauss
MySQL->GaussDB(PG兼容性模式)增量DDL使用的是B兼容性模式的DDL语法,可能会导致增量同步失败。 由于浮点型数据是采用近似值存储,而不是作为精确值存储,此外操作系统平台和底层实现也对浮点型数据有影响,因此FLOAT,DOUBLE类型的数据是不精确的,所以在MySQL和Gauss
选择投送到kafka的数据格式。 Avro:可以显示Avro二进制编码,高效获取数据,需要反序列化后解释。 JSON:为Json消息格式,方便解释格式,但需要占用更多的空间。 详细格式可参考Kafka消息格式。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,同步对象支持表级同步和库级同步,
选择投送到kafka的数据格式。 Avro:可以显示Avro二进制编码,高效获取数据,需要反序列化后解释。 JSON:为Json消息格式,方便解释格式,但需要占用更多的空间。 详细格式可参考Kafka消息格式。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,同步对象支持表级同步和库级同步,
选择投送到kafka的数据格式。 Avro:可以显示Avro二进制编码,高效获取数据。 JSON:为Json消息格式,方便解释格式,但需要占用更多的空间。 详细格式可参考Kafka消息格式。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,同步对象支持表级同步、schem
选择投送到kafka的数据格式。 Avro:可以显示Avro二进制编码,高效获取数据。 JSON:为Json消息格式,方便解释格式,但需要占用更多的空间。 详细格式可参考Kafka消息格式。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,同步对象支持表级同步、schem
也不允许将单表/广播表改为拆分表,拆分表改为单表/广播表。 全量同步阶段: 全量数据同步阶段,目标数据库会产生大量Binlog引起磁盘空间占用过大,因此在全量数据同步阶段目标数据库Binlog本地默认调整为只保留最新5个,全量同步结束后目标数据库Binlog本地保留时长恢复为用户
也不允许将单表/广播表改为拆分表,拆分表改为单表/广播表。 全量同步阶段: 全量数据同步阶段,目标数据库会产生大量Binlog引起磁盘空间占用过大,因此在全量数据同步阶段目标数据库Binlog本地默认调整为只保留最新5个,全量同步结束后目标数据库Binlog本地保留时长恢复为用户
changeStream:支持MongoDB 4.0及以上版本,DRS连接源数据库实例的mongos进行数据抽取,选择此方式时,源数据库实例必须开启WiredTiger存储引擎,推荐此选项。 说明: “changeStream”方式目前仅支持白名单用户,需要提交工单申请才能使用。您可以在管理控制台右上角,选择“工单
changeStream:支持MongoDB 4.0及以上版本,DRS连接源数据库实例的mongos进行数据抽取,选择此方式时,源数据库实例必须开启WiredTiger存储引擎,推荐此选项。 说明: “changeStream”方式目前仅支持白名单用户,需要提交工单申请才能使用。您可以在管理控制台右上角,选择“工单
5版本,则不支持使用同步任务)。 不能包含< > & " ' / \\ 特殊字符和中文,且不能超过2048个字符。 ddl_topic 否 String 存储DDL的topic,Kafka为目标且ddl_trans为true时必填。 取值:目标库已存在的topic名称,确保topic已存在。 响应参数
不支持视图的创建语句中有正则表达式。 不支持_id字段没有索引的集合。 不支持BinData()的第一个参数为2。 不支持源库集合的String类型字段中存储非UTF-8类型字符串,否则会导致迁移前后数据不一致。 全量和增量阶段都不支持时序集合。 数据库账号权限要求 在使用DRS进行迁移时,连接
不支持_id字段没有索引的集合。 不支持BinData()的第一个参数为2。 不支持范围分片的情况下maxKey当主键。 不支持源库集合的String类型字段中存储非UTF-8类型字符串,否则会导致迁移前后数据不一致。 源库为4.4或更高版本集群时,如果目标库低于5.0版本,不支持复合哈希分片键和复合哈希索引,如果目标库为5
选择投送到kafka的数据格式。 Avro:可以显示Avro二进制编码,高效获取数据。 JSON:为Json消息格式,方便解释格式,但需要占用更多的空间。 详细格式可参考Kafka消息格式。 同步对象 左侧框是源数据库对象,右侧框是已经选择的对象,同步对象支持表级同步、schem
源数据库中的表名、视图名不能包含:'<>/\"以及非ASCII字符。 支持选择表级、库级或实例级(全部迁移)。 支持数据库、表、用户、视图、索引、约束、函数、存储过程、触发器(TRIGGER)和事件(EVENT)的迁移。 仅支持MyISAM和InnoDB表的迁移。 不支持系统库的迁移以及事件状态的迁移。