检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
影响DRS任务速度的因素有哪些以及如何进行耗时预估 影响因素 源库的读取吞吐能力 读取吞吐能力越高,迁移速度越快,耗时越少。影响吞吐的因素包括但不限于服务器规格、负载、磁盘IO性能、数据库限流等。 目标库的写入吞吐能力 写入吞吐能力越高,迁移速度越快,耗时越少。影响吞吐的因素包括
一对多的场景约束及操作建议 因业务需要,存在同一实例或同一对象的数据需要同步到多个实例或多个对象的场景,数据复制服务提供的数据迁移和实时同步均支持一对多的场景。 操作建议 由于一对多场景需要多个DRS任务来配合完成,所以会对源库产生的压力也是成倍的增加,所以为避免多个DRS对同一
出云迁移的目标数据库如果是集群,则建议填写多个mongos信息,以防单个mongos节点故障影响迁移任务,并且多个mongos信息还可以实现负载均衡。如果填写多个mongos信息,注意所有所填的信息必须属于同一个集群实例。 为了提高迁移的速度,在开始迁移之前,建议在源数据库删掉不需要
sync_type String 该列在实时同步场景下的类型。取值: config:当该列作为数据过滤高级设置的关联列时,需要填写,同时如果该列是主建或优化查询所需的索引,则需要填写primary_key_for_data_filtering或index_for_data_filtering。
sync_type 否 String 该列在实时同步场景下的类型。取值: config:当该列作为数据过滤高级设置的关联列时,需要填写,同时如果该列是主建或优化查询所需的索引,则需要填写primary_key_for_data_filtering或index_for_data_filtering。
sync_type 否 String 该列在实时同步场景下的类型。取值: config:当该列作为数据过滤高级设置的关联列时,需要填写,同时如果该列是主建或优化查询所需的索引,则需要填写primary_key_for_data_filtering或index_for_data_filtering。
如何设置MongoDB数据库分片集群的分片键 MongoDB数据库中数据的分片是以集合为基本单位的,集合中的数据通过片键被分成多部分。 对集合进行分片时,您需要选择一个片键 , 片键是每条记录都必须包含的,且建立了索引的单个字段或复合字段,MongoDB数据库按照片键将数据划分到
源库Oracle为RAC集群时,为什么建议使用SCAN IP连接 源库Oracle为RAC集群时,建议使用SCAN IP+ SERVICE_NAMES方式创建任务,因为SCAN IP具有更强的容错性,更好的负载能力,更快的同步体验。 如果需要使用SCAN IP,需要保证SCAN
如何判断数据迁移任务可以停止 您可参考以下方法,确认任务是否可以结束。结束之前您需要确认完成以下几点: 请您确认至少在业务低峰期有过一次完整的数据对比。 完成业务割接。 先中断业务(如果业务负载非常轻,也可以尝试不中断业务)。 在源数据库端执行如下语句(此处以MySQL为例),并
sync_type 否 String 该列在实时同步场景下的类型。取值: config:当该列作为数据过滤高级设置的关联列时,需要填写,同时如果该列是主建或优化查询所需的索引,则需要填写primary_key_for_data_filtering或index_for_data_filtering。
给CN ,SQL可以包含对数据的增(insert)、删(delete/drop)、改(update)、查(select)。CN利用数据库的优化器生成执行计划,下发给DN,每个DN会按照执行计划的要求去处理数据,处理完成后DN将结果集返回给CN进行汇总,最后CN将汇总后的结果返回给业务应用。
源数据库信息检查 检查分片节点是否和mongos节点属于同一个集群 源数据库的均衡器状态检查 源库的实例类型检查 父主题: 预检查不通过项修复方法
sync_type 否 String 该列在实时同步场景下的类型。取值: config:当该列作为数据过滤高级设置的关联列时,需要填写,同时如果该列是主建或优化查询所需的索引,则需要填写primary_key_for_data_filtering或index_for_data_filtering。
全量或增量阶段失败报错,关键词“Can not read response from server” 场景描述 全量或增量阶段,DRS迁移或同步任务报错,日志提示信息:service LOGMANAGER failed, cause by: Can not read response
全量阶段失败报错,关键词“Lock wait timeout exceeded; try restarting transaction” 场景描述 全量迁移或同步期间DRS任务报错,日志提示信息:service DATAMOVE failed, cause by: apply e
预检查超时 DRS预检查阶段会在源及目标数据库进行一系列查询判断是否符合数据迁移或者同步的前提条件,以便提升任务成功率。当后端检查用时超过页面超时设置时,会显示预检查结果上报超时。 可能原因 源或目标数据库资源不足,执行查询过慢导致超时。 数据库中对象过多,执行用时长导致超时。
实时迁移 如何判断数据迁移任务可以停止 MySQL迁移中Definer强制转化后如何维持原业务用户权限体系 MySQL存储过程迁移上云后遇到调用权限的问题,如何解决 如何确保业务数据库的全部业务已经停止 迁移日志提示can not get agency token Oracle到MySQL迁移时,索引超长如何处理
增量阶段失败报错,关键词“Deadlock found when trying to get lock” 场景描述 增量迁移或同步期间DRS任务报错,日志提示信息:service INCREMENT failed, cause by: record tid:%s,seqno:%s
增量阶段失败报错,关键词“Lock wait timeout exceeded” 场景描述 增量迁移或同步期间DRS任务报错,日志提示信息:service INCREMENT failed, cause by: Lock wait timeout exceeded; try restarting
sync_type 否 String 该列在实时同步场景下的类型。取值: config:当该列作为数据过滤高级设置的关联列时,需要填写,同时如果该列是主建或优化查询所需的索引,则需要填写primary_key_for_data_filtering或index_for_data_filtering。