检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
任务状态说明 备份迁移提供了多种任务状态,以便区分不同阶段的迁移任务。 数据备份迁移任务的状态和说明,请参见表1。 表1 备份迁移任务状态和说明 状态 说明 恢复中 正在进行备份文件到目标数据库的迁移任务。 成功 备份文件到目标数据库的迁移任务执行成功。 失败 备份文件到目标数据库的迁移任务执行失败
投送到kafka的数据格式 选择投送到kafka的数据格式。 Avro:可以显示Avro二进制编码,高效获取数据。 JSON:为Json消息格式,方便解释格式,但需要占用更多的空间。 详细格式可参考Kafka消息格式。
URI格式: /v3/{project_id}/jobs/batch-status 请求示例: POST: https://{endpoint}/v3/054ba152d480d55b2f5dc0069e7ddef0/jobs/batch-status {endpoint}信息请从地区和终端节点获取
为什么实时灾备任务不支持触发器(TRIGGER)和事件(EVENT) 数据库的触发器(TRIGGER)和事件(EVENT)操作会记录binlog,DRS通过解析binlog同步数据,如果业务侧写入与触发器、事件存在同样对象,就会发生重复执行导致数据不一致或者任务失败,所以在灾备场景下
通过创建事件触发器和函数实现PostgreSQL增量DDL同步 本小结介绍PostgreSQL->RDS for PostgreSQL实时同步,通过在源库创建事件触发器和函数获取源库的DDL信息,然后在DRS增量实时同步阶段实现DDL操作的同步。 前提条件 当前支持的DDL操作包含如下
每周对比:格式示例:“* * 1,3,5” ,其中“1,3,5”对应星期一、星期三、星期五,根据实际填写。 每天对比:固定填写“* * 1,2,3,4,5,6,7”。 按小时对比:固定填写“* * 1,2,3,4,5,6,7”。
编辑同步任务 已创建成功但是未确认启动的同步任务,数据复制服务支持编辑任务的配置信息,包括源库信息、目标库信息。创建实例后,对于如下状态的任务,您可进行编辑并提交同步任务。 创建中 配置 对于增量同步中的任务,数据复制服务支持通过编辑同步对象功能进行对象修改,详细操作可参考编辑同步对象
投送到kafka的数据格式 选择投送到kafka的数据格式。 Avro:可以显示Avro二进制编码,高效获取数据。 JSON:为Json消息格式,方便解释格式,但需要占用更多的空间。 详细格式可参考Kafka消息格式。
如何判断数据迁移任务可以停止 您可参考以下方法,确认任务是否可以结束。结束之前您需要确认完成以下几点: 请您确认至少在业务低峰期有过一次完整的数据对比。 完成业务割接。 先中断业务(如果业务负载非常轻,也可以尝试不中断业务)。 在源数据库端执行如下语句(此处以MySQL为例),并观察在
投送到kafka的数据格式 选择投送到kafka的数据格式。 Avro:可以显示Avro二进制编码,高效获取数据。 JSON:为Json消息格式,方便解释格式,但需要占用更多的空间。 详细格式可参考Kafka消息格式。
start_time 否 String 对比任务启动时间,时间戳格式,取值为空代表立即启动。
投递到Kafka的数据格式 可选择JSON格式,可参考Kafka消息格式。 同步对象 同步对象选择db_test库下的schema_test.table1。 单击“下一步”,等待预检查结果。 当所有检查都是“通过”时,单击"下一步”。 确认同步任务信息正确后,单击“启动任务”。
投递到Kafka的数据格式 可选择JSON格式,可参考Kafka消息格式。 同步对象 同步对象选择db_test库下的schema_test.table1。 单击“下一步”,等待预检查结果。 当所有检查都是“通过”时,单击"下一步”。 确认同步任务信息正确后,单击“启动任务”。
查询规格未售罄的可用AZ信息 功能介绍 查询规格未售罄的可用区。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v3/{project_id}/available-zone
不同源数据库来源对应的审计日志格式不同,具体可参考审计日志格式说明。 目标数据库引擎 选择“TaurusDB”。 网络类型 此处以“公网网络”为示例。 可根据业务场景选择“公网网络”、“VPC网络”和“VPN、专线”网络。
如果源数据库为云上RDS for MySQL实例,则默认开启Binlog,无需额外配置,binlog_format格式为row,详细说明可参考设置RDS for MySQL本地Binlog日志清理。
不同源数据库来源对应的审计日志格式不同,具体可参考审计日志格式说明。 目标数据库引擎 选择“MySQL”。 网络类型 此处以“公网网络”为示例。 可根据业务场景选择“公网网络”、“VPC网络”和“VPN、专线网络”。
格式为:文件名.文件编号:事件位点。 MongoDB为源的任务,任务的源库日志从位点开始获取(含当前启动位点),位点需设置在oplog范围以内。
选择“消息查询”页签,在Kafka对应的Topic中,查看接收到相应的JSON格式数据。 结束同步任务。 根据业务情况,确认数据已全部同步至目标库,可以结束当前任务。 单击“操作”列的“结束”。 仔细阅读提示后,单击“是”,结束任务。
实时灾备链路规格说明 注意事项 文中提供的性能指标仅用于提供参考的测试数据,实际环境会受源或目标数据库性能、网络带宽、数据模型、业务模型等因素影响。 规格说明 实时灾备根据链路的性能上限,定义了四种规格:极小、小、中、大,各个规格的同步性能上限如表1。 表1 规格性能上限 规格名称