检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
以源库Mysql数据库为例,进行行数对比,取消对比任务,在源库有对比任务的查询进程未及时结束,清理残留进程,按照如下步骤操作: 使用管理员权限用户登录Mysql数据库,执行show processlist; 按照Host和Command获取Id,其中Host是drs任务节点IP,Command是select
数据库密码 数据库IP 数据库端口 数据库用户名 约束限制 所有链路均支持修改连接密码。 目前仅MySQL和TaurusDB为源且连接方式为输入IP地址的任务,在增量阶段支持修改IP、端口、用户名信息。当源库进行某些操作导致IP地址、端口、用户名变化时,可通过此功能更新为正确的信息。
数据库密码 数据库IP 数据库端口 数据库用户名 自建DNS服务配置 约束限制 所有链路均支持修改连接密码。 目前仅MySQL为源且连接方式为输入IP地址的任务,在增量阶段支持修改IP、端口、用户名信息。当源库进行某些操作导致IP地址、端口、用户名变化时,可通过此功能更新为正确的信息。
数据库密码 数据库IP 数据库端口 数据库用户名 约束限制 所有链路均支持修改连接密码。 目前仅MySQL和TaurusDB为源且连接方式为输入IP地址的单主灾备任务,在灾备阶段支持修改IP、端口、用户名信息。当业务库进行某些操作导致IP地址、端口、用户名变化时,可通过此功能更新为正确的信息。
同Region同VPC下的RDS for MySQL实例的配置流程。 ECS自建MySQL迁移到TaurusDB 本实践介绍通过VPC网络,使用DRS将ECS自建MySQL数据迁移到同Region同VPC下的TaurusDB实例的配置流程。 ECS自建MongoDB迁移DDS 本
批量更新迁移用户信息 功能介绍 数据库的迁移过程中,迁移用户需要进行单独处理,该接口可以批量设置需要迁移的用户和角色。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 接口约束
'hstore'; 解决方案 插件对象不同步,同步前请先在目标库安装相应的插件。请按照如下步骤,安装插件后,再重试DRS任务。 使用root用户登录目标库RDS for PostgreSQL的相应库(database)。 执行如下SQL,安装hstore插件。 create extension
C下的RDS for MySQL实例的配置流程。 ECS自建MySQL迁移到GaussDB(for MySQL) 本实践介绍通过VPC网络,使用DRS将ECS自建MySQL数据迁移到同Region同VPC下的GaussDB(for MySQL)实例的配置流程。 ECS自建MongoDB迁移DDS
数据库用户权限检查 源数据库用户权限是否足够 目标数据库用户权限是否足够 Definer迁移权限检查 父主题: 预检查不通过项修复方法
发送的实体的MIME类型。推荐用户默认使用application/json,如果API是对象、镜像上传等接口,媒体类型可按照流类型的不同进行确定。 缺省值:application/json X-Auth-Token 是 String 从IAM服务获取的用户Token。 用户Token也就是调
'postgis'; 解决方案 插件对象不同步,同步前请先在目标库安装相应的插件。请按照如下步骤,安装插件后,再重试DRS任务。 使用root用户登录目标库RDS for PostgreSQL的相应库(database)。 执行如下SQL,安装postgis插件。 create extension
failed: Operation not allowed when innodb_force_recovery > 0. 可能原因 目标库实例异常。 当目标库系统变量 innodb_force_recovery > 0时,目标库禁止了INSERT, UPDATE, DELETE操作。
Topic *** not present in metadata after 300000 ms. 可能原因 目标Kafka为多可用区的Kafka实例,在某个可用区故障后,Kafka客户端在生产或消费消息时,可能会报上述错误。 解决方案 检查并修复Kafka分区状态。 然后在任务列表中,
g日志,会导致任务增量迁移失败。 不通过原因 源数据库为只读备库,不存在binlog日志。 处理建议 建议更换源数据库,将TaurusDB实例主库作为源数据库后,重新进行预检查。 父主题: 数据库参数检查
cause by: Failed to construct kafka producer. 可能原因 目标Kafka为多可用区的Kafka实例,在某个可用区故障后,Kafka客户端在生产或消费消息时,可能会报上述错误。 解决方案 检查并修复Kafka分区状态。 然后在任务列表中,
获取源库迁移用户列表 功能介绍 数据库的迁移过程中,迁移用户需要进行单独处理,该接口可以查询源库的用户信息。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 接口约束 仅迁移场景、PostgreSQL同步可用。
灾备方案概览 为了解决地区故障导致的业务不可用,数据复制服务推出灾备场景,为用户业务连续性提供数据库的同步保障。您可以轻松地实现云下数据库到云上的灾备、跨云平台的数据库灾备,无需预先投入巨额基础设施。 数据灾备支持两地三中心、两地四中心灾备架构。单边灾备可以利用灾备场景的升主、降备功能从而实现异地主备倒换的效果。
Oracle为源增量同步时,DRS会对源数据库连接用户权限进行检查。源数据库连接用户不具有日志解析权限,会导致增量迁移失败。 不通过原因 源数据库用户不具有EXECUTE_CATALOG_ROLE角色。 源数据库用户不具有日志解析权限。 处理建议 建议为用户赋予相应角色或者权限后重新预检查。 赋予用户EXECUTE
DATAMOVE failed, cause by: GC overhead limit exceeded。 可能原因 源库单条数据过大。 迁移实例规格太小。 处理方法 查看任务状态是否正常。 任务状态正常,该报错为日志中显示,无需处理。 任务状态异常,执行2。 在管理控制台右上角,选择“工单
数据订阅 支持的数据源类型 数据订阅支持的数据源类型包括: RDS for MySQL实例 支持的订阅对象 数据订阅的订阅对象可以为:表级订阅。 数据订阅将增量数据细分为数据变更(Data Manipulation Language 简称DML)和结构变更(Data Definition