Mysql-聚簇索排序慢案例分析

为什么当 执行select较多时应当使用mysiam引擎呢?尤其是在有索引的情况下

本篇章依托一个实际应用,分析一下。

一.前言:

网上看到有一个有趣的现象,一个有1W数据量的表,执行不同的orderby条件,查询时间非常大,这个是实际应用中确实出现的问题??为什么呢?

二.分析

a).情况描述:

1.有主键id,联合索引(id,ver);用前者当orderby查询慢,用后者orderby查询会很快;

2.每一行的数据量挺大

3.id为主索引,而select查询的字段也仅仅有id,那么不就是索引覆盖了呗,不用到物理磁盘回行数据,在索引上就能拿到要的数据了,但本应该查询更快的却慢了。Mysql-索引覆盖

b).分析:

肯定用的不是mysiam引擎,若是的话用这两个索引查询,其实速度是差不多的,因为索引上存的都是一个物理行的地址嘛,实际占有的数据量又不大。但如果是innodb就不一样了,它的主索引下边可是拖家带口存放着该行的所有数据的。

c).结论:

1.主因:用的innodb引擎

是聚簇索引,主键ID索引还下拖家带口的挂着该行的其他数据,导致沿着ID排序时,要跨过好多小块才能查询遍历每个ID;(而mysiam下头没那么多数据,跨过相同的数据块会更快,遍历更多的行)

2.从因:有几个字段下的数据量比较大,即拖家带口带的人还比较多,数据量比较大。每行数据量大,在磁盘存储时占用的块儿也多

3. 当时mysiam引擎时不存在这个问题

d).映射结论:

当 执行select较多时,应当使用mysiam引擎,

当执行 insert,update多时使用innodb引擎

更多结论请看:Mysql-索引总结

三.模拟测试

还原上面所说的条件,建立连个表,控制变量,除了引擎不同外,其余条件相同,主键ID主索引,联合索引(id,ver)。

1.新建表t7,mysiam引擎

2.随机插入一万条数据

3.执行查询语句,查看时间

显然,时间相差不太大,都是一个量级的。

4.新建表t8,innodb引擎

5.随机插入一万条数据

小插曲,按照上边脚本执行语句,等待时间非常长,为什么呢?因为其为聚簇索引,有主键索引ID,在创建主键索引的时候,行的数据块大量移动,有分裂移动的时间在里边。

操作是先删除主键索引ID,插入数据后在add primary key(id),再创建主键索引结构

6.执行查询语句,查看时间

显然,时间相差不太大,都是一个量级的。

原因:两个语句都用到了聚簇索引,只是主键的跨块儿太多,而联合索引为次级索引,下边无数据,块儿少,遍历快。

7.总分析,只有t8表(innodb)的按照主键索引排序耗时多,其余还好

时间排序结论:innodb.主索引 > innodb.次索引 > mysiam

效率将近差了30倍,问题处在了哪里?

1.主因,沿着主键做order by排序,查询时会跨页很多块,时间增加

2.如果没有几个长的char字段,数据块也不大,也就不会造成这么大的差别,

比如,删除表中str1,str2,str3字段,查询时间也会大大减少,差异不明显

时间: 2024-08-04 16:12:31

Mysql-聚簇索排序慢案例分析的相关文章

MYSQL Truncate 引发数据表损坏案例分析

最近发布到市场的版本频繁出现数据库表损坏的情况,具体的现象是select表提示表不存在,但是查看data文件,对应表的ibd和frm文件都在. 通过对多个故障的统计,找到几个频繁出现损坏的表,在分析过程中,发现这些数据表都使用了truncate清除数据,所以怀疑是truncate操作的问题. 设计如下过程来验证这个分析结果: 1. 创建存储过程如下,对一张表模拟频繁调用TRUNCATE DROP PROCEDURE IF EXISTS prcTest5;CREATE PROCEDURE prcT

【MySQL】排序原理与案例分析

前言 排序是数据库中的一个基本功能,MySQL也不例外.用户通过Order by语句即能达到将指定的结果集排序的目的,其实不仅仅是Order by语句,Group by语句,Distinct语句都会隐含使用排序.本文首先会简单介绍SQL如何利用索引避免排序代价,然后会介绍MySQL实现排序的内部原理,并介绍与排序相关的参数,最后会给出几个"奇怪"排序例子,来谈谈排序一致性问题,并说明产生现象的本质原因. 排序优化与索引使用 为了优化SQL语句的排序性能,最好的情况是避免排序,合理利用索

161920、使用Spring AOP实现MySQL数据库读写分离案例分析

一.前言 分布式环境下数据库的读写分离策略是解决数据库读写性能瓶颈的一个关键解决方案,更是最大限度了提高了应用中读取 (Read)数据的速度和并发量. 在进行数据库读写分离的时候,我们首先要进行数据库的主从配置,最简单的是一台Master和一台Slave(大型网站系统的话,当然会很复杂,这里只是分析了最简单的情况).通过主从配置主从数据库保持了相同的数据,我们在进行读操作的时候访问从数据库Slave,在进行写操作的时候访问主数据库Master.这样的话就减轻了一台服务器的压力. 在进行读写分离案

使用Spring AOP实现MySQL数据库读写分离案例分析

一.前言 分布式环境下数据库的读写分离策略是解决数据库读写性能瓶颈的一个关键解决方案,更是最大限度了提高了应用中读取 (Read)数据的速度和并发量. 在进行数据库读写分离的时候,我们首先要进行数据库的主从配置,最简单的是一台Master和一台Slave(大型网站系统的话,当然会很复杂,这里只是分析了最简单的情况).通过主从配置主从数据库保持了相同的数据,我们在进行读操作的时候访问从数据库Slave,在进行写操作的时候访问主数据库Master.这样的话就减轻了一台服务器的压力. 在进行读写分离案

(转)一个MySQL 5.7 分区表性能下降的案例分析

一个MySQL 5.7 分区表性能下降的案例分析 原文:http://www.talkwithtrend.com/Article/216803 前言 希望通过本文,使MySQL5.7.18的使用者知晓分区表使用中存在的陷阱,避免在该版本上继续踩坑.同时通过对源码的分享,升级MySQL5.7.18时分区表性能下降的根本原因,向MySQL源码爱好者展示分区表实现中锁的运用. 问题描述 MySQL 5.7版本中,性能相关的改进非常多.包括临时表相关的性能改进,连接建立速度的优化和复制分发相关的性能改进

MySQL SYS CPU高的案例分析(一)

原文:MySQL SYS CPU高的案例分析(一) [现象] 最近关注MySQL CPU告警的问题时,发现有一种场景,有一些服务器最近都较频繁的出现CPU告警,其中的现象是 SYS CPU占比较高. 下面的截图来源于“MySQL CPU报警”采集的文件 [问题分析] 可以分析出这服务器CPU升高的原因是由于表的高并发写入引起.优化方案通常是通知开发停止写入或降低写入频率. 究竟是什么原因导致高并发写入时CPU sys的占比这么高. 从采集的[Perf Stat]指标看到CPU有大量消耗是集中ke

mysql经典案例分析

问题: create table A ( id varchar(64) primary key, ver int, ...)在id,ver上有联合索引,10000条数据为什么select id from A order by id特别慢?而select id from A order by id,ver非常快我的表有几个很长的字段 varbinary(3000) 推断: 1. 2句sql都用到了索引覆盖,如果myisam引擎2句sql应该都很快, 推断用的是innodb引擎 2. order b

MySQL Innodb表导致死锁日志情况分析与归纳

发现当备份表格的sql语句与删除该表部分数据的sql语句同时运行时,mysql会检测出死锁,并打印出日志 案例描述在定时脚本运行过程中,发现当备份表格的sql语句与删除该表部分数据的sql语句同时运行时,mysql会检测出死锁,并打印出日志.两个sql语句如下:(1)insert into backup_table select * from source_table(2)DELETE FROM source_table WHERE Id>5 AND titleWeight<32768 AND

《大型网站技术架构-核心原理与案例分析》之一: 大型网站架构演化

最近刚刚读完李智慧的<大型网站技术架构-核心原理与案例分析>,对每章重点内容作了一些笔记,以便加深印象及日后查阅. 一.大型网站软件系统的特点 高并发,大流量:需要面对高并发用户,大流量访问. 高可用:系统7X24小时不间断服务. 海量数据:需要存储.管理海量数据,需要使用大量服务器. 用户分布广泛,网络情况复杂:许多大型互联网都是为全球用户提供服务的,用户分布范围广,各地网络情况千差万别. 安全环境恶劣:由于互联网的开放性,使得互联网站更容易受到攻击,大型网站几乎每天都会被黑客攻击. 需求快