检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
导出数据库备份文件 本小节介绍了数据库全量备份文件和事务日志(增量)备份文件的导出方法。 检查本地数据库参数配置。 该操作为全量+增量迁移的必操作项,仅进行全量迁移时,可以跳过该步骤。 由于数据库存在日志截断和收缩配置,在导出全量备份文件前,需要将数据库恢复模式配置成“完整”模式
源数据库binlog格式检查 检查源数据库Binlog格式。MySQL增量迁移时,源数据库的Binlog日志必须打开,且Binlog日志格式必须为row格式。 不通过原因 源数据库的Binlog格式不是row格式。 处理建议 如果源数据库为本地自建MySQL,可通过如下方法,修改源数据库Binlog格式:
Kafka消息格式 同步到Kafka集群中的数据以Avro、JSON和JSON-C格式存储。不同链路支持的数据格式可参考表1: 表1 支持的数据格式 数据流向 Avro JSON JSON-C MySQL->Kafka 支持 支持 支持 Oracle->Kafka 支持 支持 暂不支持
上传备份文件 本小节介绍了上传备份文件的方法。 创建OBS桶,并将备份文件上传OBS桶。 如果单次上传文件不大于5GB时,可以登录OBS控制台创建OBS自建桶,存储类别选择“标准存储”,桶策略选择“公共读”。 如果批量上传多个文件(单次最多支持100个文件同时上传,总大小不超过5
cause by: Failed to read file header from thl.data.0000000011 可能原因 DRS数据文件格式损坏。 解决方案 查看任务状态是否正常。 任务状态正常,该报错为日志中显示,无需处理。 任务状态异常,执行2。 在管理控制台右上角,选择“工单
修改任务信息 备份迁移任务创建成功后,支持对部分任务基本信息进行修改,以方便区分和识别迁移任务。 支持可修改的任务信息如下: 任务名称 描述 前提条件 已登录数据复制服务控制台。 操作步骤 在“备份迁移管理”页面,选择指定的迁移任务,单击任务名称。 进入“基本信息”页签,在“任务
修改任务信息 数据订阅任务创建成功后,支持对部分任务基本信息进行修改,以方便区分和识别订阅任务。 支持可修改的任务信息如下: 任务名称 描述 SMN主题 前提条件 已登录数据复制服务控制台。 操作步骤 在“数据订阅管理”页面,选择指定的订阅任务,单击任务名称。 进入“基本信息”页
查看订阅数据 数据复制服务支持通过管理控制台在线查看增量订阅数据,能够查看的时间范围为订阅任务的数据范围(不含视图和存储过程的数据)。 本小节介绍在线查看订阅数据的方式,及数据记录的各个字段的含义。 前提条件 已登录数据复制服务管理控制台。 已成功创建数据订阅任务。 操作步骤 在
修改任务信息 实时迁移任务创建成功后,支持对部分任务基本信息进行修改,以方便区分和识别迁移任务。 支持可修改的任务信息如下: 任务名称 描述 SMN主题 时延阈值 任务异常结束天数 任务启动时间 前提条件 已登录数据复制服务控制台。 已成功创建迁移任务。 操作步骤 在“实时迁移管
修改任务信息 同步任务创建成功后,支持对部分任务基本信息进行修改,以方便区分和识别同步任务。 支持可修改的任务信息如下: 任务名称 描述 SMN主题 时延阈值 任务异常结束天数 任务启动时间 前提条件 已登录数据复制服务控制台。 操作步骤 在“实时同步管理”页面,选择指定的同步任务,单击任务名称。
修改任务信息 灾备任务创建成功后,支持对部分任务基本信息进行修改,以方便区分和识别灾备任务。 支持可修改的任务信息如下: 任务名称 描述 SMN主题 时延阈值 任务异常结束天数 任务启动时间 前提条件 已登录数据复制服务控制台。 操作步骤 在“实时灾备管理”页面,选择指定的灾备任务,单击任务名称。
修改任务信息 回放任务创建成功后,支持对部分任务基本信息进行修改,以方便区分和识别回放任务。 支持可修改的任务信息如下: 任务名称 描述 SMN主题 任务异常结束天数 任务启动时间 前提条件 已登录数据复制服务控制台。 操作步骤 在“录制回放管理”页面,选择指定的回放任务,单击任务名称。
接迁移到本云RDS for SQL Server实例上,在迁移完成后还需要针对Login账号,DBLink,AgentJOB,关键配置进行识别,并手动完成相关同步工作。 Login账号 Login账号即SQL Server的实例级账号,主要用于用户管理用户服务器权限与数据库权限。
将PostgreSQL同步到PostgreSQL 支持的源和目标数据库 表1 支持的数据库 源数据库 目标数据库 本地自建数据库(PostgreSQL 9.4、9.5、9.6、10、11、12、13、14、15版本) ECS自建数据库(PostgreSQL 9.4、9.5、9.6
接迁移到本云RDS for SQL Server实例上,在迁移完成后还需要针对Login账号,DBLink,AgentJOB,关键配置进行识别,并手动完成相关同步工作。 Login账号 Login账号即SQL Server的实例级账号,主要用于用户管理用户服务器权限与数据库权限。
概述 欢迎使用数据复制服务(Data Replication Service,简称DRS)。数据复制服务是一种易用、稳定、高效、用于数据库在线迁移和数据库实时同步的云服务。数据复制服务是通过创建任务,以任务作为数据库迁移的导向。 您可以使用本文档提供的API对数据复制任务进行相关
创建DRS同步任务 本章节介绍创建DRS实例,将RDS for MySQL上的数据库增量同步到Kafka。 同步前检查 在创建任务前,需要针对同步条件进行手工自检,以确保您的同步任务更加顺畅。 本示例中,为RDS for MySQL到Kafka的出云同步,您可以参考出云同步使用须知获取相关信息。
vpc-DRSsrc 自定义,易理解可识别。 所属Region 华南-广州 选择和自己业务区最近的Region,减少网络时延。 可用区 可用区二 - 子网网段 10.0.0.0/24 子网选择时建议预留足够的网络资源。 子网名称 subnet-drs01 自定义,易理解可识别。 RDS(源库) RDS实例名
自定义,易理解可识别。 所属Region 测试Region 选择和自己业务区最近的Region,减少网络时延。 可用区 可用区3 - 子网网段 192.168.0.0/24 子网选择时建议预留足够的网络资源。 子网名称 subnet-drs01 自定义,易理解可识别。 本地Oracle数据库
vpc-01 自定义,易理解可识别。 所属Region 华北-北京一 选择和自己业务区最近的Region,减少网络时延。 可用区 可用区二 - 子网网段 192.168.0.0/24 子网选择时建议预留足够的网络资源。 子网名称 subnet-3c29 自定义,易理解可识别。 灾备中心VPC