mysql分页limit 优化

mysql的分页比较简单,只需要limit offset,length就可以获取数据了,但是当offset和length比较大的时候,mysql明显性能下降

1.子查询优化法

先找出第一条数据,然后大于等于这条数据的id就是要获取的数

缺点:数据必须是连续的,可以说不能有where条件,where条件会筛选数据,导致数据失去连续性

实验下

Sql代码 

  1. mysql> set profiling=1
  2. Query OK, 0 rows affected (0.00 sec

3.4. mysql> select count(*) from Member

  1. +———-
  2. | count(*)
  3. +———-
  4. |   169566
  5. +———-
  6. 1 row in set (0.00 sec

11.12. mysql> pager grep !~

  1. PAGER set to ‘grep !~-

14.15. mysql> select * from Member limit 10, 100

  1. 100 rows in set (0.00 sec

17.18. mysql> select * from Member where MemberID >= (select MemberID from Member limit 10,1) limit 100

  1. 100 rows in set (0.00 sec

20.21. mysql> select * from Member limit 1000, 100

  1. 100 rows in set (0.01 sec

23.24. mysql> select * from Member where MemberID >= (select MemberID from Member limit 1000,1) limit 100

  1. 100 rows in set (0.00 sec

26.27. mysql> select * from Member limit 100000, 100

  1. 100 rows in set (0.10 sec

29.30. mysql> select * from Member where MemberID >= (select MemberID from Member limit 100000,1) limit 100

  1. 100 rows in set (0.02 sec

32.33. mysql> nopage

  1. PAGER set to stdou

35.36.37. mysql> show profiles\

  1. ************************  1. row  ***********************
  2. Query_ID:
  3. Duration: 0.0000330
  4. Query: select count(*) from Membe

42.43. ************************  2. row  ***********************

  1. Query_ID:
  2. Duration: 0.0016700
  3. Query: select * from Member limit 10, 10
  4. ************************  3. row  ***********************
  5. Query_ID:
  6. Duration: 0.0011240
  7. Query: select * from Member where MemberID >= (select MemberID from Member limit 10,1) limit 10

51.52. ************************  4. row  ***********************

  1. Query_ID:
  2. Duration: 0.0026320
  3. Query: select * from Member limit 1000, 10
  4. ************************  5. row  ***********************
  5. Query_ID:
  6. Duration: 0.0013400
  7. Query: select * from Member where MemberID >= (select MemberID from Member limit 1000,1) limit 10

60.61. ************************  6. row  ***********************

  1. Query_ID:
  2. Duration: 0.0995670
  3. Query: select * from Member limit 100000, 10
  4. ************************  7. row  ***********************
  5. Query_ID:
  6. Duration: 0.0244770
  7. Query: select * from Member where MemberID >= (select MemberID from Member limit 100000,1) limit 100

从结果中可以得知,当偏移1000以上使用子查询法可以有效的提高性能。

2.倒排表优化法

倒排表法类似建立索引,用一张表来维护页数,然后通过高效的连接得到数据

缺点:只适合数据数固定的情况,数据不能删除,维护页表困难

具体请看, http://blog.chinaunix.net/u/29134/showart_1333566.html

3.反向查找优化法

当偏移超过一半记录数的时候,先用排序,这样偏移就反转了

缺点:order by优化比较麻烦,要增加索引,索引影响数据的修改效率,并且要知道总记录

,偏移大于数据的一

limit偏移算法

正向查找: (当前页 – 1) * 页长

反向查找: 总记录 – 当前页 * 页长

做下实验,看看性能如何

总记录数:1,628,77

每页记录数: 4

总页数:1,628,775 / 40 = 4072

中间页数:40720 / 2 = 20360

第21000

正向查找SQL:

Sql代码 

  1. SELECT * FROM  abc  WHERE  BatchID  = 123 LIMIT 839960, 40

时间:1.8696 秒

反向查找sql:

Sql代码 

  1. SELECT * FROM  abc  WHERE  BatchID  = 123 ORDER BY InputDate DESC LIMIT 788775, 40

时间:1.8336 秒

第30000

正向查找SQL:

Sql代码 

  1. SELECT * FROM  abc  WHERE  BatchID  = 123 LIMIT 1199960, 40

时间:2.6493 秒

反向查找sql:

Sql代码 

  1. SELECT * FROM  abc  WHERE  BatchID  = 123 ORDER BY InputDate DESC LIMIT 428775, 40

时间:1.0035 秒

注意,反向查找的结果是是降序desc的,并且InputDate是记录的插入时间,也可以用主键联合索引,但是不方便。

4.limit限制优化法

把limit偏移量限制低于某个数。。超过这个数等于没数据,我记得alibaba的dba说过他们是这样做的

5.只查索引法

http://willko.iteye.com/blog/670120

总结:limit的优化限制都比较多,所以实际情况用或者不用只能具体情况具体分析了。页数那么后,基本很少人看的。。。

时间: 2024-10-24 12:58:10

mysql分页limit 优化的相关文章

mysql 分页性能优化

最简单的分页方法是这样的 select * from exarticletemp ORDER BY CreateDate desc LIMIT 10000,10 该表中存在5w左右数据 执行时间平均在10s左右,因此该种方式在数据量大的情况下查询效率极低. 优化方式有以下几种 1.此种方式平均在0.04s-0.05s之间(CreateDate 需建立索引) select * from exarticletemp where id> (SELECT id FROM exarticletemp OR

mySql分页Iimit优化

索引优化: 如果sql语句类似如下,那么就需要建复合索引(category_id + d)来提高查询效率: SELECT * FROM articles WHERE category_id = 123 ORDER BY id LIMIT 50, 10 子查询方式的分页: 随着数据量的增加,页数会越来越多,查看后几页的SQL就可能类似: SELECT * FROM articles WHERE category_id = 123 ORDER BY id LIMIT 10000, 10 这种查询分页

mysql分页 limit,limit offset

limit: SELECT keyword FROM keyword_rank WHERE advertiserid='59' ORDER BY keyword LIMIT 2 ,1; limit后面是从第2条开始读,读取1条信息: SELECT keyword FROM keyword_rank WHERE advertiserid='59' order by keyword LIMIT 2 OFFSET 1; limit后面跟的是2条数据,offset后面是从第1条开始读取 原文地址:htt

mysql分页与分页性能查询优化

mysql分页就直接使用limit进行操作,limit如果我们直接不加任何处理可能数据大了就会很卡的. 一. 最常见MYSQL最基本的分页方式: select * from content order by id desc limit 0, 10 在中小数据量的情况下,这样的SQL足够用了,唯一需要注意的问题就是确保使用了索引.随着数据量的增加,页数会越来越多,查看后几页的SQL就可能类似: select * from content order by id desc limit 10000,

Mysql limit 优化,百万至千万级快速分页,--复合索引的引用并应用于轻量级框架

MySql 性能到底能有多高?用了php半年多,真正如此深入的去思考这个问题还是从前天开始.有过痛苦有过绝望,到现在充满信心!MySql 这个数据库绝对是适合dba级的高手去玩的,一般做一点1万篇新闻的小型系统怎么写都可以,用xx框架可以实现快速开发.可是数据量到了10万,百万至千 万,他的性能还能那么高吗?一点小小的失误,可能造成整个系统的改写,甚至更本系统无法正常运行!好了,不那么多废话了.用事实说话,看例子: 数据表 collect ( id, title ,info ,vtype) 就这

MYSQL 分页慢加速器 解决方案 MYSQL 分页优化 MYSQL 分页解决方案 LIMIT 优化

无论你是InnoD引擎LIMIT分页慢还是MyISAM引擎LIMIT分页慢,大伙SELECT查询分页一般都是这样的[数据总共2万条,需要查询3个字段]: SELECT `id` , `url` , `content` FROM `product` WHERE 1 ORDER BY `id` LIMIT 10000 , 100 执行速度是: 45.7秒 哈哈,慢的掉渣吧! 作者LET再次隆重推荐 MySql LIMIT 分页查询加速利器解决方案: http://my.oschina.net/car

MySQL的limit用法和分页查询的性能分析及优化

申明:本博文转发于 点击链接跳转 一.limit用法在我们使用查询语句的时候,经常要返回前几条或者中间某几行数据,这个时候怎么办呢?不用担心,mysql已经为我们提供了这样一个功能. SELECT * FROM table LIMIT [offset,] rows | `rows OFFSET offset ` (LIMIT offset, `length`)SELECT*FROM tablewhere condition1 = 0and condition2 = 0and condition3

MySQL分页优化中的“INNER JOIN方式优化分页算法”到底在什么情况下会生效?

本文出处:http://www.cnblogs.com/wy123/p/7003157.html 最近无意间看到一个MySQL分页优化的测试案例,并没有非常具体地说明测试场景的情况下,给出了一种经典的方案,因为现实中很多情况都不是固定不变的,能总结出来通用性的做法或者说是规律,是要考虑非常多的场景的,同时,面对能够达到优化的方式要追究其原因,同样的做法,换了个场景,达不到优化效果的,还要追究其原因.个人对此场景在不用情况表示怀疑,然后自己测试了一把,果然发现一些问题,同时也证实了一些预期的想法.

MySQL单表百万数据记录分页性能优化

原文地址:http://www.cnblogs.com/lyroge/p/3837886.html MySQL单表百万数据记录分页性能优化 背景: 自己的一个网站,由于单表的数据记录高达了一百万条,造成数据访问很慢,Google分析的后台经常报告超时,尤其是页码大的页面更是慢的不行. 测试环境: 先让我们熟悉下基本的sql语句,来查看下我们将要测试表的基本信息 use infomation_schemaSELECT * FROM TABLES WHERE TABLE_SCHEMA = 'dbna