正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
源数据库SSL证书类型检查 MySQL->MySQL同步场景 表1 源数据库SSL证书类型检查 预检查项 源数据库SSL证书类型检查。 描述 检查MySQL->MySQL同步时,源数据库的SSL证书类型是否正确,如不符合要求,会导致同步失败。 不通过提示及处理建议 不通过原因:源数据库
暂停任务计费说明 数据复制服务支持“按需计费”和“包年/包月”两种计费模式,两种方式均针对DRS实例从以下方面收取费用: 表1 计费项 计费项 计费项说明 计费规则 配置费(必选) 指计算和存储资源及数据处理的费用。 “按需计费”配置费用是按照实际使用时长计费,以自然小时为单位整点计费
源数据库binlog日志是否开启 检查源数据库是否开启了Binlog日志功能。MySQL增量迁移时,源数据库的Binlog日志必须打开。 不通过原因 源数据库未开启Binlog日志功能。 处理建议 如果源数据库为本地自建MySQL库,建议参考如下操作开启Binlog日志。 查看binlog
源数据库账号依赖检查 MongoDB迁移场景 表1 源数据库账号依赖检查 预检查项 源数据库账号依赖检查。 描述 在进行用户迁移时,若所选迁移的用户与某些角色存在依赖关系,需要同时选择迁移该用户及所依赖的角色,否则会导致迁移失败。 不通过提示及处理建议 不通过原因:源数据库账号依赖的数据库在目标数据库中不存在
批量导入任务 DRS支持通过Excel表格导入的形式创建迁移任务,用户可以将任务基本信息、源库和目标库信息、以及待迁移的对象等信息填写到模板中,再进行导入,批量创建迁移任务。 约束限制 目前仅支持引擎为MySQL->MySQL的任务进行导入。 修改导入文件时模板时,示例内容需要清除
目标数据库SSL证书类型检查 MySQL迁移场景 表1 目标数据库SSL证书类型检查 预检查项 目标数据库SSL证书类型检查。 描述 检查云内数据库迁移出云时,目标数据库的SSL证书类型是否正确,如不符合要求,会导致迁移失败。 不通过提示及处理建议 不通过原因:目标数据库SSL证书不存在
目标库读写设置是实例级还是库级 配置迁移任务时,目标数据库实例可以选择设置为“只读”或者“读写”状态。 只读:目标数据库整个实例将转化为只读、不可写入的状态,迁移任务结束后恢复可读写状态,此选项可有效的确保数据迁移的完整性和成功率,推荐此选项。 读写:目标数据库可以读写,但需要避免操作或接入应用后会更改迁移中的数据
MySQL存储过程迁移上云后遇到调用权限的问题,如何解决 MySQL存储过程迁移上云后,可能会因为权限问题导致调用存储过程或函数出错。 针对该情况,不同的Definer策略有不同的处理方法。本章节主要以user1为示例,介绍两种迁移Definer的策略下的处理方法。 策略一 在测试连接页面的目标库信息中填写数据库用户名
源数据库角色依赖检查 MongoDB迁移场景 表1 源数据库角色依赖检查 预检查项 源数据库角色依赖检查。 描述 在进行用户迁移时,若所选迁移的用户与某些角色存在依赖关系,需要同时选择迁移该用户及所依赖的角色,否则会导致迁移失败。 不通过提示及处理建议 不通过原因:源数据库角色依赖的数据库在目标数据库中不存在
DDM灾备任务源库填写说明 DRS支持DDM灾备任务的源端通过输入IP方式进行连接,如图1。DDM灾备的原理是源端和目标端DDM中的DN一一对应灾备,因此需要正确填写源端和目标端的DN的对应关系。关于DDM逻辑库和逻辑库下的DN实例说明可参考DDM产品文档。 在创建DDM灾备任务前
编辑订阅任务 数据复制服务支持编辑数据订阅任务的配置信息,包括源库信息、目标库信息。创建实例后,对于如下状态的任务,您可进行编辑并提交订阅任务。 配置 前提条件 已登录数据复制服务控制台。 操作步骤 在“数据订阅管理”页面的任务列表中,选择要修改的任务,单击操作列“编辑”按钮。 进入
附录 通用使用建议 DRS预检查项一览表
附录 通用使用建议 DRS预检查项一览表
备份迁移 备份迁移场景的是否最后一个备份文件选择错误该如何处理 手动配置信息
应用示例 场景一:批量查询任务状态 场景二:批量查询任务详情 场景三:批量启动任务
如何通过设置VPC安全组,实现DRS任务网络互通 基于安全的考虑,本云VPC与外部网络是隔离的,VPC内是无法访问外部的弹性IP(如其他云数据库的弹性IP、云下数据库的弹性IP等)。但数据库迁移场景需要确保本云VPC内的DRS实例与源、目标数据库可连通,为此,您需要分别设置源数据库
实时迁移 实时迁移是在用户只需要配置迁移的源、目标数据库及迁移对象即可完成整个数据迁移过程,再通过多项指标和数据的对比分析,帮助确定合适的业务割接时机,实现最小化业务中断的数据库迁移。 目前部分功能仅支持白名单用户使用,需要提交工单申请才能使用。您可以在管理控制台右上角,选择“工单
Kafka消息格式 同步到Kafka集群中的数据以Avro、JSON和JSON-C格式存储。不同链路支持的数据格式可参考表1: 表1 支持的数据格式 数据流向 Avro JSON JSON-C MySQL->Kafka 支持 支持 支持 Oracle->Kafka 支持 支持 暂不支持
资源规划 表1 资源规划 类别 子类 规划 备注 VPC VPC名称 vpc-src-172 自定义,易理解可识别。 所属Region 测试Region 现网实际选择时建议选择和自己业务区最近的Region,减少网络时延。 可用区 可用区3 - 子网网段 172.16.0.0/16
数据订阅 修改数据库后,到SDK的用户端消费一般有多长时间的延迟 订阅SDK获取不到数据,且程序异常