检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
目标数据库是否连接成功 DRS在预检查阶段,会对提供的目标数据库IP、端口、用户名、密码的连通性及准确性进行检查。 不通过原因 用户名或密码错误。 端口无法访问。 数据库账号不允许远程连接。 Kafka brokers不可用。 连接失败。 处理建议 检查DRS测试连接时输入的用户
配置灾备任务 本章节介绍配置DRS灾备实例,包含源库和目标库的配置。 操作步骤 在“实时灾备管理”页面,选择已创建的灾备任务,单击“编辑”。 根据界面提示,将灾备实例的弹性公网IP加入生产中心RDS for MySQL实例所属安全组的入方向规则,选择TCP协议,端口为生产中心RDS
源数据库连接是否成功 DRS在预检查阶段,会对提供的源数据库IP、端口、用户名、密码的连通性及准确性进行检查。 不通过原因 用户名或密码错误。 端口无法访问。 数据库账号不允许远程连接。 连接失败。 处理建议 检查DRS测试连接时输入的用户名和密码是否正确,填入正确的数据库用户名和密码后重新执行预检查。
创建ECS(MySQL服务器) 购买弹性云服务器,用于安装MySQL社区版。 登录华为云管理控制台。 单击管理控制台左上角的,选择区域“华南-广州”。 单击页面左上角,选择“计算 > 弹性云服务器 ECS”。 单击“购买云服务器”。 配置弹性云服务器参数。 选择通用计算型s6.xlarge
本地MySQL迁移到RDS for MySQL 数据复制服务(Data Replication Service,简称DRS)支持将本地MySQL数据库的数据迁移至云数据库 RDS for MySQL实例。通过DRS提供的实时迁移任务,实现在数据库迁移过程中业务和数据库不停机,业务中断时间最小化。
其他云MongoDB迁移到DDS 数据复制服务(Data Replication Service,简称DRS)支持将其他云MongoDB数据库的数据迁移到本云文档数据库服务(Document Database Service,以下简称DDS)实例。通过DRS提供的实时迁移任务,实
同Region同VPC,通过VPC网络接入华为云 使用DRS将同Region同VPC的华为云ECS数据库迁移到华为云云数据库时,选择VPC网络其网络示意图如图1所示: 图1 网络示意图 源数据库为ECS自建数据库,源和目标数据库属于相同Region相同VPC,DRS使用VPC网络
multi_write Boolean 是否多主灾备任务,双主灾备时有值为true。 support_ip_v6 Boolean 是否支持IPV6。 inherit_id String 继承的任务ID。 gtid String 断点的GTID集合。 alarm_notify Object
创建DRS同步任务 本章节介绍创建DRS实例,将RDS for MySQL上的数据库增量同步到Kafka。 同步前检查 在创建任务前,需要针对同步条件进行手工自检,以确保您的同步任务更加顺畅。 本示例中,为RDS for MySQL到Kafka的出云同步,您可以参考出云同步使用须知获取相关信息。
计费样例 计费场景 某用户于2023/03/18 15:30:00在华北-北京四启动了一个按需计费的DRS同步任务,任务配置如下: 数据流动方向:入云 源数据引擎:MySQL 目标数据库引擎:MySQL DRS任务类型:单AZ 规格类型:中 网络类型:公网网络,需要绑定弹性公网IP,公网带宽6Mbit/s。
DRS同步阶段1:全量同步 选择创建DRS任务章节创建的DRS全量+增量任务,配置源库及目标库信息。 填写源库的IP、端口、用户、密码等信息。 填写完成后,需要单击“测试连接”,测试连接信息是否正确。 填写目标库的账户和密码。 填写完成后,需要单击“测试连接”,测试连接信息是否正确。
编辑连接信息 连接信息创建成功后,DRS支持再次编辑修改,可修改的任务信息如下: 任务名称 描述 数据库IP 数据库端口 数据库用户名 数据库密码 操作步骤 在“连接信息管理”页面的列表中,选择要修改的任务,单击操作列“编辑”按钮。 在“编辑连接信息”页面,修改数据库信息后,单击“保存并返回”。
DRS导出任务列表 DRS支持查询和导出详细的任务信息列表,包括任务名称、ID、状态、网络类型、源库和目标库IP地址或域名、端口、告警配置等信息,方便客户从不同维度查看和管理任务。在任务管理界面,选择查询条件,单击右侧的,导出当前的查询结果。 图1 导出任务查询结果 父主题: 通用操作
修改连接信息 数据灾备过程中,您可能修改了业务数据库或者灾备数据库的密码信息,导致数据灾备、数据对比、暂停、续传、主备倒换、结束等操作失败,此时您需要通过数据复制服务控制台更新为正确的信息,然后继续灾备任务。 对于如下的信息,您可以进行修改。 数据库密码 数据库IP 数据库端口 数据库用户名
修改连接信息 数据迁移过程中,您可能修改了源数据库或者目标数据库的密码信息,导致数据迁移、数据对比、暂停、续传、重置、结束等操作失败,此时您需要通过数据复制服务控制台更新为正确的信息,然后续传任务。 对于如下的迁移信息,您可以进行修改。 数据库密码 数据库IP 数据库端口 数据库用户名
修改连接信息 数据同步过程中,您可能修改了源数据库或者目标数据库的密码信息,导致数据同步、数据对比、重置、续传、编辑同步对象、结束等操作失败,此时您需要通过数据复制服务控制台更新为正确的信息,然后续传任务。 对于如下的同步信息,您可以进行修改。 数据库密码 数据库IP 数据库端口
迁移前构造数据 迁移前需要在源库构造一些数据类型,供迁移完成后验证数据。 前提条件 已知源端数据库的IP地址,端口,账户和密码。 操作步骤 根据源端数据库的IP地址,通过数据库连接工具连接数据库。 根据支持的数据类型,在源库执行语句构造数据。 登录源端数据库。 进入任意一个待迁移的逻辑库。
查看订阅数据 数据复制服务支持通过管理控制台在线查看增量订阅数据,能够查看的时间范围为订阅任务的数据范围(不含视图和存储过程的数据)。 本小节介绍在线查看订阅数据的方式,及数据记录的各个字段的含义。 前提条件 已登录数据复制服务管理控制台。 已成功创建数据订阅任务。 操作步骤 在
数据订阅提供多种功能,详情请见表1。 表1 高级特性 特性 说明 动态增减订阅对象 在数据订阅过程中,您可以随时增加或减少需要订阅的对象。 在线查看订阅数据 您可以通过管理控制台在线查看订阅的增量数据。 修改消费时间点 在消费的过程中,您可以随时修改消费时间点。 父主题: 功能特性
Kafka认证方式 PLAINTEXT方式 无安全认证方式,仅需输入IP和端口进行连接。 图1 PLAINTEXT SASL_PLAINTEXT认证 使用SASL机制连接Kafka,需要设置SASL相关配置。 图2 SASL_PLAINTEXT 表1 参数信息 参数 描述 SASL机制