dede视频网站,有哪些做包装设计网站好些,黄页88网是什么性质的网站,做自己任务的网站当一个表数据有几百万的数据时#xff0c;分页的时候成了问题如 select * from table limit 0,10 这个没有问题 当 limit 200000,10 的时候数据读取就很慢#xff0c;可以按照一下方法解决最近一个网站的服务器评论被人刷死#xff0c;导致mysql数据库异常发生too many open…当一个表数据有几百万的数据时分页的时候成了问题如 select * from table limit 0,10 这个没有问题 当 limit 200000,10 的时候数据读取就很慢可以按照一下方法解决最近一个网站的服务器评论被人刷死导致mysql数据库异常发生too many open connections引发的SQL语句SELECT a.uid, a.veil, a.content, a.datetimes, a.audit, b.user_name, b.uc_id
FROM news_talkabout a
LEFT JOIN users_info b ON a.uid b.id
WHERE infoid 11087
ORDER BY a.id DESC
LIMIT 451350 , 30丢在phpmyadmin里执行一下是很慢。让人思考是什么因素SELECT a.uid, a.veil, a.content, a.datetimes, a.audit, b.user_name, b.uc_id
FROM news_talkabout a
LEFT JOIN users_info b ON a.uid b.id
WHERE infoid 11087
ORDER BY a.id DESC
LIMIT 0 , 30第一页会很快PERCONA PERFORMANCE CONFERENCE 2009上来自雅虎的几位工程师带来了一篇EfficientPagination Using MySQL的报告limit10000,20的意思扫描满足条件的10020行扔掉前面的10000行返回最后的20行问题就在这里。LIMIT 451350 , 30 扫描了45万多行怪不得慢的数据库都堵死了。但是limit 30 这样的语句仅仅扫描30行。那么如果我们之前记录了最大ID就可以在这里做文章举个例子日常分页SQL语句select id,name,content from users order by id asc limit 100000,20扫描100020行如果记录了上次的最大IDselect id,name,content from users where id100073 order by id asc limit 20扫描20行。总数据有500万左右以下例子 当时候 select * from wl_tagindex where bynamef order by id limit 300000,10 执行时间是 3.21s优化后select * from ( select id from wl_tagindex where bynamef order by id limit 300000,10) aleft join wl_tagindex b on a.idb.id执行时间为 0.11s 速度明显提升这里需要说明的是 我这里用到的字段是 byname ,id 需要把这两个字段做复合索引否则的话效果提升不明显总结当一个数据库表过于庞大LIMIT offset, length中的offset值过大则SQL查询语句会非常缓慢你需增加order by并且order by字段需要建立索引。 如果使用子查询去优化LIMIT的话则子查询必须是连续的某种意义来讲子查询不应该有where条件where会过滤数据使数据失去连续性。 如果你查询的记录比较大并且数据传输量比较大比如包含了text类型的field则可以通过建立子查询。SELECT id,title,content FROM items WHERE id IN (SELECT id FROM items ORDER BY id limit 900000, 10); 如果limit语句的offset较大你可以通过传递pk键值来减小offset 0这个主键最好是int类型并且auto_incrementSELECT * FROM users WHERE uid 456891 ORDER BY uid LIMIT 0, 10;这条语句大意如下:SELECT * FROM users WHERE uid (SELECT uid FROM users ORDER BY uid limit 895682, 1) limit 0, 10; 如果limit的offset值过大用户也会翻页疲劳你可以设置一个offset最大的超过了可以另行处理一般连续翻页过大用户体验很差则应该提供更优的用户体验给用户。limit 分页优化方法1.子查询优化法 先找出第一条数据然后大于等于这条数据的id就是要获取的数据 缺点数据必须是连续的可以说不能有where条件where条件会筛选数据导致数据失去连续性实验下mysql set profiling1;
Query OK, 0 rows affected (0.00 sec)
mysql select count(*) from Member;
----------
| count(*) |
----------
| 169566 |
----------
1 row in set (0.00 sec)
mysql pager grep !~-
PAGER set to grep !~-
mysql select * from Member limit 10, 100;
100 rows in set (0.00 sec)
mysql select * from Member where MemberID (select MemberID from Member limit 10,1) limit 100;
100 rows in set (0.00 sec)
mysql select * from Member limit 1000, 100;
100 rows in set (0.01 sec)
mysql select * from Member where MemberID (select MemberID from Member limit 1000,1) limit 100;
100 rows in set (0.00 sec)
mysql select * from Member limit 100000, 100;
100 rows in set (0.10 sec)
mysql select * from Member where MemberID (select MemberID from Member limit 100000,1) limit 100;
100 rows in set (0.02 sec)
mysql nopager
PAGER set to stdoutmysql show profilesG
*************************** 1. row ***************************
Query_ID: 1
Duration: 0.00003300Query: select count(*) from Member
*************************** 2. row ***************************
Query_ID: 2
Duration: 0.00167000Query: select * from Member limit 10, 100
*************************** 3. row ***************************
Query_ID: 3
Duration: 0.00112400Query: select * from Member where MemberID (select MemberID from Member limit 10,1) limit 100
*************************** 4. row ***************************
Query_ID: 4
Duration: 0.00263200Query: select * from Member limit 1000, 100
*************************** 5. row ***************************
Query_ID: 5
Duration: 0.00134000Query: select * from Member where MemberID (select MemberID from Member limit 1000,1) limit 100
*************************** 6. row ***************************
Query_ID: 6
Duration: 0.09956700Query: select * from Member limit 100000, 100
*************************** 7. row ***************************
Query_ID: 7
Duration: 0.02447700Query: select * from Member where MemberID (select MemberID from Member limit 100000,1) limit 100从结果中可以得知当偏移1000以上使用子查询法可以有效的提高性能。2.倒排表优化法 倒排表法类似建立索引用一张表来维护页数然后通过高效的连接得到数据缺点只适合数据数固定的情况数据不能删除维护页表困难3.反向查找优化法 当偏移超过一半记录数的时候先用排序这样偏移就反转了缺点order by优化比较麻烦要增加索引索引影响数据的修改效率并且要知道总记录数 偏移大于数据的一半引用limit偏移算法 正向查找 (当前页 - 1) * 页长度 反向查找 总记录 - 当前页 * 页长度做下实验看看性能如何总记录数1,628,775 每页记录数 40 总页数1,628,775 / 40 40720 中间页数40720 / 2 20360第21000页 正向查找SQL: SELECT * FROM abc WHERE BatchID 123 LIMIT 839960, 40时间1.8696 秒反向查找sql: SELECT * FROM abc WHERE BatchID 123 ORDER BY InputDate DESC LIMIT 788775, 40时间1.8336 秒第30000页 正向查找SQL: 1.SELECT * FROM abc WHERE BatchID 123 LIMIT 1199960, 40
SELECT * FROM abc WHERE BatchID 123 LIMIT 1199960, 40(更多内容点击此处打开原文)