检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
DRS获取binlog日志失败,源数据库可能为不支持获取Binlog日志的MySQL代理节点。 解决方案 修改DRS任务,将源数据库更换为可以获取Binlog日志的节点。 修改完成后,在任务列表中,单击对应操作列的“续传”,重新提交任务。 父主题: MySQL->MySQL实时迁移和同步
transactions for long times, may lack some data for this Job!.” 场景描述 全量迁移或同步期间DRS任务报错,日志提示信息:exist some xa transactions for long times, may lack some data
将GaussDB分布式版同步到MySQL 将GaussDB分布式版同步到Oracle 将GaussDB分布式版同步到Kafka 将GaussDB分布式版同步到GaussDB分布式版 将GaussDB分布式版同步到GaussDB集中式版 将GaussDB分布式版同步到PostgreSQL
API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 接口约束 目前仅支持Oracle->GaussDB分布式、MySQL->Kafka、TaurusDB->Kafka同步场景。 仅支持部分Region使用,详情参考终端节点。 URI POST /
表级同步时,未同步相互关联的对象。例如:源库存在A表和B表,且A表依赖B表,同步时只选择同步了A表。 解决方案 清空目标库数据。 重新创建DRS同步任务,选择待同步对象及其关联对象。 启动同步任务。 父主题: PostgreSQL->PostgreSQL实时同步
全量阶段失败报错,关键词“transfer account failed, can not find password from src DB” 场景描述 全量迁移期间DRS任务报错,日志提示信息:service DATAMOVE failed, cause by: transfer account failed,
故障后,Kafka客户端在生产或消费消息时,可能会报上述错误。 解决方案 检查并修复Kafka分区状态。 然后在任务列表中,单击任务对应操作列的“重置”,重新提交任务。 父主题: Oracle为源实时同步
DRS公网网络的EIP带宽是多少 DRS创建公网网络类型任务时,需要用户指定EIP,因此DRS公网网络的EIP带宽为用户选择绑定的EIP带宽。 更多关于弹性公网IP的说明请参见:申请弹性公网IP。 父主题: 网络及安全
本地自建MySQL 华为云GaussDB分布式版 本地MySQL同步到GaussDB分布式版 本地自建Oracle 华为云GaussDB分布式版 本地Oracle同步到GaussDB分布式版 华为云GaussDB集中式版 本地Oracle同步到GaussDB集中式版 分布式数据库中间件DDM 本地Oracle同步到DDM
源库是否为TaurusDB备库 源数据库为TaurusDB备库时,不存在Binlog日志,会导致任务增量迁移失败。 不通过原因 源数据库为只读备库,不存在binlog日志。 处理建议 建议更换源数据库,将TaurusDB实例主库作为源数据库后,重新进行预检查。 父主题: 数据库参数检查
表结构是否存在虚拟列。 不通过原因 源库存在虚拟列,目前不具备虚拟列数据同步能力,会导致同步数据不完整。 处理建议 在预检查结束之后、启动任务之前,在目标库创建存在虚拟列的表结构。 父主题: 数据库参数检查
IP。 以源库为华为云RDS for MySQL为例,可参考《绑定和解绑弹性公网IP》。 创建DRS公网网络任务,为DRS实例绑定弹性公网IP。 在创建公网网络的DRS任务时,可在实例信息页面为DRS实例绑定弹性公网IP。 配置源库所在安全组和源库所在子网的网络ACL。 安全组:
将PostgreSQL同步到Kafka 将GaussDB分布式版同步到MySQL 将GaussDB分布式版同步到Oracle 将GaussDB分布式版同步到GaussDB(DWS) 将GaussDB分布式版同步到Kafka 将GaussDB分布式版同步到GaussDB分布式版 将GaussDB分布式版同步到GaussDB集中式版
全量或增量阶段失败报错,关键词“Read timed out” 场景描述 全量或增量阶段,DRS迁移或同步任务报错,日志提示信息:service LOGMANAGER failed, cause by: Read timed out 可能原因 针对该情况分析,可能存在如下原因: 访问源库时建立连接失败。
故障后,Kafka客户端在生产或消费消息时,可能会报上述错误。 解决方案 检查并修复Kafka分区状态。 然后在任务列表中,单击任务对应操作列的“重置”,重新提交任务。 父主题: Oracle为源实时同步
jobs 是 Array of strings 批量主备调换的任务详情ID请求列表。 响应参数 状态码: 202 表4 响应Body参数 参数 参数类型 描述 results Array of objects 批量主备倒换任务返回列表。 详情请参见表5。 count Integer 总数。
实例类型是否匹配迁移模式 检查MongoDB实例类型是否匹配迁移模式,若不匹配,则会导致迁移失败。 不通过原因 创建DRS任务时,源数据库实例类型选择为集群,但是源库为非集群。 处理建议 当前源数据库实例类型选择为集群时,请确保实际输入的源库类型是集群。 父主题: 数据库参数检查
全量或增量阶段失败报错,关键词“Duplicate entry *** for key 'PRIMARY'” 场景描述 全量或增量阶段,DRS迁移或同步任务报错,日志提示信息:service CAPTURER failed, cause by: Duplicate entry '120' for
通用请求Http Status Code 正常 表1 正常返回说明 返回值 说明 200 请求成功。 202 异步请求成功提交(任务执行等)。 异常 表2 异常返回说明 返回值 说明 400 Bad Request 服务器未能处理请求。 401 Unauthorized 被请求的页面需要用户名和密码。
是否删除,如果database被删除,可参考链路使用须知重建任务。 检查迁移使用的账户对源库的表是否有执行SHOW CREATE TABLE的权限,如果不具备则参考此链路操作须知为源库账户赋予操作权限,然后对DRS任务执行重试。 父主题: MySQL->MySQL实时迁移和同步