检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
存储过程和相关表字符集不一致导致执行缓慢 场景描述 TaurusDB存储过程执行很慢,处理少量数据耗时1min以上,而单独执行存储过程中的SQL语句却很快。 原因分析 存储过程和相关表、库的字符集不一致,导致查询结果存在大量字符转换,从而执行缓慢。 排查过程: 使用如下命令查看存储过程和相关表的定义,观察存储过程和表的字符集是否一致。
在使用TaurusDB过程中,经常遇到表空间膨胀问题,例如:表中只有11774行数据,表空间却占用49.9GB,将该表导出到本地只有800M。 原因分析 场景1:DRS全量迁移阶段并行迁移导致 原因:DRS在全量迁移阶段,为了保证迁移性能和传输的稳定性,采用了行级并行的迁移方式。当源端数据
冷热数据问题导致SQL执行速度慢 场景描述 从自建MySQL或友商MySQL迁移到云上TaurusDB实例,发现同一条SQL语句执行性能远差于原数据库。 原因分析 同一条SQL语句在数据库中执行第一次和第二次可能会性能差异巨大,这是由数据库的buffer_pool机制决定的: 第一次执行时,数据在磁
在使用TaurusDB过程中,经常遇到表空间膨胀问题,例如:表中只有11774行数据,表空间却占用49.9GB,将该表导出到本地只有800M。 原因分析 场景1:DRS全量迁移阶段并行迁移导致 原因:DRS在全量迁移阶段,为了保证迁移性能和传输的稳定性,采用了行级并行的迁移方式。当源端数据
冷热数据问题导致SQL执行速度慢 场景描述 从自建MySQL或友商MySQL迁移到云上TaurusDB实例,发现同一条SQL语句执行性能远差于原数据库。 原因分析 同一条SQL语句在数据库中执行第一次和第二次可能会性能差异巨大,这是由数据库的buffer_pool机制决定的: 第一次执行时,数据在磁
务中断时间最小化。 应用场景 企业业务高速发展,传统数据库扩容性差,迫切需要分布式化改造。 传统数据库需要自购并安装服务器、系统、数据库等软件,运维成本高、难度大。 传统数据库性能瓶颈问题,复杂查询性能较差。 如何不中断业务并且平滑地实现数据迁移。 前提条件 拥有华为实名认证账号。
务中断时间最小化。 应用场景 企业业务高速发展,传统数据库扩容性差,迫切需要分布式化改造。 传统数据库需要自购并安装服务器、系统、数据库等软件,运维成本高、难度大。 传统数据库性能瓶颈问题,复杂查询性能较差。 如何不中断业务并且平滑地实现数据迁移。 前提条件 拥有华为实名认证账号。
删除数据。 delete from zstest1; 执行查询语句。 select id from zstest1; //执行缓慢 原因分析 执行完delete操作后,后台purge线程会去清理标记为delete mark的记录。由于当前删除的数据量较大,purge遍历释放pa
SSL使用与介绍 场景描述 使用SSL无法连接上数据库。 原因分析 优先检查网络是否已经连通,如果不带SSL的连接方式可以连接,则可能是mysql client或对应的数据库驱动的版本不兼容。 解决方案 TaurusDB是兼容社区8.0以上版本的,需要使用8.0及以上版本的mysql
(ER_LOCK_WAIT_TIMEOUT): Lock wait timeout exceeded; try restarting transaction 原因分析 查看监控指标“行锁花费时间”,监控到行锁等待时间较长,说明该系统出现过锁冲突的现象。 监控指标详细内容请参考查看监控指标。 登录实例,执
SSL使用与介绍 场景描述 使用SSL无法连接上数据库。 原因分析 优先检查网络是否已经连通,如果不带SSL的连接方式可以连接,则可能是mysql client或对应的数据库驱动的版本不兼容。 解决方案 TaurusDB是兼容社区8.0以上版本的,需要使用8.0及以上版本的mysql
(ER_LOCK_WAIT_TIMEOUT): Lock wait timeout exceeded; try restarting transaction 原因分析 查看监控指标“行锁花费时间”,监控到行锁等待时间较长,说明该系统出现过锁冲突的现象。 监控指标详细内容请参考查看监控指标。 登录实例,执
在使用TaurusDB过程中,经常遇到表空间膨胀问题,例如:表中只有11774行数据,表空间却占用49.9GB,将该表导出到本地只有800M。 原因分析 场景1:DRS全量迁移阶段并行迁移导致 原因:DRS在全量迁移阶段,为了保证迁移性能和传输的稳定性,采用了行级并行的迁移方式。当源端数据
场景描述 插入数据时报错 ERROR 1062 (23000): Duplicate entry 'xxx' for key 'xxx'。 原因分析 自增主键的字段取值达到上限,无法继续增长,导致新插入的数据生成的自增主键值与表中上一条数据相同,因为自增主键的值不可重复,插入失败报错。
修改全局变量成功但未生效 场景描述 使用Console上的参数修改功能修改long_query_time成功,但未生效。 原因分析 使用Console修改参数时,系统实际使用“set global 变量名=新的变量值;”修改全局参数。 在使用set global命令修改全局变量值
CASCADE ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin 原因分析 部分表发生死锁,导致CPU一定幅度抬升。 死锁的表中有大量的外键,这些表的记录在更新时,不仅需要获取本表的行锁,还需要检查外键关联表的记
场景描述 插入数据时报错 ERROR 1062 (23000): Duplicate entry 'xxx' for key 'xxx'。 原因分析 自增主键的字段取值达到上限,无法继续增长,导致新插入的数据生成的自增主键值与表中上一条数据相同,因为自增主键的值不可重复,插入失败报错。
删除数据。 delete from zstest1; 执行查询语句。 select id from zstest1; //执行缓慢 原因分析 执行完delete操作后,后台purge线程会去清理标记为delete mark的记录。由于当前删除的数据量较大,purge遍历释放pa
修改全局变量成功但未生效 场景描述 使用Console上的参数修改功能修改long_query_time成功,但未生效。 原因分析 使用Console修改参数时,系统实际使用“set global 变量名=新的变量值;”修改全局参数。 在使用set global命令修改全局变量值
CASCADE ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin 原因分析 部分表发生死锁,导致CPU一定幅度抬升。 死锁的表中有大量的外键,这些表的记录在更新时,不仅需要获取本表的行锁,还需要检查外键关联表的记