You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

316 lines
18 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 10 | MySQL为什么有时候会选错索引
前面我们介绍过索引你已经知道了在MySQL中一张表其实是可以支持多个索引的。但是你写SQL语句的时候并没有主动指定使用哪个索引。也就是说使用哪个索引是由MySQL来确定的。
不知道你有没有碰到过这种情况一条本来可以执行得很快的语句却由于MySQL选错了索引而导致执行速度变得很慢
我们一起来看一个例子吧。
我们先建一个简单的表表里有a、b两个字段并分别建上索引
```
CREATE TABLE `t` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`a` int(11) DEFAULT NULL,
`b` int(11) DEFAULT NULL,
PRIMARY KEY (`id`),
KEY `a` (`a`),
KEY `b` (`b`)
) ENGINE=InnoDB;
```
然后我们往表t中插入10万行记录取值按整数递增(1,1,1)(2,2,2)(3,3,3) 直到(100000,100000,100000)。
我是用存储过程来插入数据的,这里我贴出来方便你复现:
```
delimiter ;;
create procedure idata()
begin
declare i int;
set i=1;
while(i<=100000)do
insert into t values(i, i, i);
set i=i+1;
end while;
end;;
delimiter ;
call idata();
```
接下来我们分析一条SQL语句
```
mysql> select * from t where a between 10000 and 20000;
```
你一定会说这个语句还用分析吗很简单呀a上有索引肯定是要使用索引a的。
你说得没错图1显示的就是使用explain命令看到的这条语句的执行情况。
![](https://static001.geekbang.org/resource/image/2c/e3/2cfce769551c6eac9bfbee0563d48fe3.png?wh=1743*159)
图1 使用explain命令查看语句执行情况
从图1看上去这条查询语句的执行也确实符合预期key这个字段值是a表示优化器选择了索引a。
不过别急这个案例不会这么简单。在我们已经准备好的包含了10万行数据的表上我们再做如下操作。
![](https://static001.geekbang.org/resource/image/1e/1e/1e5ba1c2934d3b2c0d96b210a27e1a1e.png?wh=936*344)
图2 session A和session B的执行流程
这里session A的操作你已经很熟悉了它就是开启了一个事务。随后session B把数据都删除后又调用了 idata这个存储过程插入了10万行数据。
这时候session B的查询语句select \* from t where a between 10000 and 20000就不会再选择索引a了。我们可以通过慢查询日志slow log来查看一下具体的执行情况。
为了说明优化器选择的结果是否正确我增加了一个对照使用force index(a)来让优化器强制使用索引a这部分内容我还会在这篇文章的后半部分中提到
下面的三条SQL语句就是这个实验过程。
```
set long_query_time=0;
select * from t where a between 10000 and 20000; /*Q1*/
select * from t force index(a) where a between 10000 and 20000;/*Q2*/
```
* 第一句是将慢查询日志的阈值设置为0表示这个线程接下来的语句都会被记录入慢查询日志中
* 第二句Q1是session B原来的查询
* 第三句Q2是加了force index(a)来和session B原来的查询语句执行情况对比。
如图3所示是这三条SQL语句执行完成后的慢查询日志。
![](https://static001.geekbang.org/resource/image/7c/f6/7c58b9c71853b8bba1a8ad5e926de1f6.png?wh=1221*325)
图3 slow log结果
可以看到Q1扫描了10万行显然是走了全表扫描执行时间是40毫秒。Q2扫描了10001行执行了21毫秒。也就是说我们在没有使用force index的时候MySQL用错了索引导致了更长的执行时间。
这个例子对应的是我们平常不断地删除历史数据和新增数据的场景。这时MySQL竟然会选错索引是不是有点奇怪呢今天我们就从这个奇怪的结果说起吧。
# 优化器的逻辑
在第一篇文章中,我们就提到过,选择索引是优化器的工作。
而优化器选择索引的目的是找到一个最优的执行方案并用最小的代价去执行语句。在数据库里面扫描行数是影响执行代价的因素之一。扫描的行数越少意味着访问磁盘数据的次数越少消耗的CPU资源越少。
当然,扫描行数并不是唯一的判断标准,优化器还会结合是否使用临时表、是否排序等因素进行综合判断。
我们这个简单的查询语句并没有涉及到临时表和排序所以MySQL选错索引肯定是在判断扫描行数的时候出问题了。
那么,问题就是:**扫描行数是怎么判断的?**
MySQL在真正开始执行语句之前并不能精确地知道满足这个条件的记录有多少条而只能根据统计信息来估算记录数。
这个统计信息就是索引的“区分度”。显然一个索引上不同的值越多这个索引的区分度就越好。而一个索引上不同的值的个数我们称之为“基数”cardinality。也就是说这个基数越大索引的区分度越好。
我们可以使用show index方法看到一个索引的基数。如图4所示就是表t的show index 的结果 。虽然这个表的每一行的三个字段值都是一样的,但是在统计信息中,这三个索引的基数值并不同,而且其实都不准确。
![](https://static001.geekbang.org/resource/image/16/d4/16dbf8124ad529fec0066950446079d4.png?wh=1850*209)
图4 表t的show index 结果
那么,**MySQL是怎样得到索引的基数的呢**这里我给你简单介绍一下MySQL采样统计的方法。
为什么要采样统计呢?因为把整张表取出来一行行统计,虽然可以得到精确的结果,但是代价太高了,所以只能选择“采样统计”。
采样统计的时候InnoDB默认会选择N个数据页统计这些页面上的不同值得到一个平均值然后乘以这个索引的页面数就得到了这个索引的基数。
而数据表是会持续更新的索引统计信息也不会固定不变。所以当变更的数据行数超过1/M的时候会自动触发重新做一次索引统计。
在MySQL中有两种存储索引统计的方式可以通过设置参数innodb\_stats\_persistent的值来选择
* 设置为on的时候表示统计信息会持久化存储。这时默认的N是20M是10。
* 设置为off的时候表示统计信息只存储在内存中。这时默认的N是8M是16。
由于是采样统计所以不管N是20还是8这个基数都是很容易不准的。
但,这还不是全部。
你可以从图4中看到这次的索引统计值cardinality列虽然不够精确但大体上还是差不多的选错索引一定还有别的原因。
其实索引统计只是一个输入,对于一个具体的语句来说,优化器还要判断,执行这个语句本身要扫描多少行。
接下来,我们再一起看看优化器预估的,这两个语句的扫描行数是多少。
![](https://static001.geekbang.org/resource/image/e2/89/e2bc5f120858391d4accff05573e1289.png?wh=1606*382)
图5 意外的explain结果
rows这个字段表示的是预计扫描行数。
其中Q1的结果还是符合预期的rows的值是104620但是Q2的rows值是37116偏差就大了。而图1中我们用explain命令看到的rows是只有10001行是这个偏差误导了优化器的判断。
到这里可能你的第一个疑问不是为什么不准而是优化器为什么放着扫描37000行的执行计划不用却选择了扫描行数是100000的执行计划呢
这是因为如果使用索引a每次从索引a上拿到一个值都要回到主键索引上查出整行数据这个代价优化器也要算进去的。
而如果选择扫描10万行是直接在主键索引上扫描的没有额外的代价。
优化器会估算这两个选择的代价,从结果看来,优化器认为直接扫描主键索引更快。当然,从执行时间看来,这个选择并不是最优的。
使用普通索引需要把回表的代价算进去在图1执行explain的时候也考虑了这个策略的代价 但图1的选择是对的。也就是说这个策略并没有问题。
所以冤有头债有主MySQL选错索引这件事儿还得归咎到没能准确地判断出扫描行数。至于为什么会得到错误的扫描行数这个原因就作为课后问题留给你去分析了。
既然是统计信息不对那就修正。analyze table t 命令,可以用来重新统计索引信息。我们来看一下执行效果。
![](https://static001.geekbang.org/resource/image/20/9c/209e9d3514688a3bcabbb75e54e1e49c.png?wh=1736*397)
图6 执行analyze table t 命令恢复的explain结果
这回对了。
所以在实践中如果你发现explain的结果预估的rows值跟实际情况差距比较大可以采用这个方法来处理。
其实如果只是索引统计不准确通过analyze命令可以解决很多问题但是前面我们说了优化器可不止是看扫描行数。
依然是基于这个表t我们看看另外一个语句
```
mysql> select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 1;
```
从条件上看,这个查询没有符合条件的记录,因此会返回空集合。
在开始执行这条语句之前,你可以先设想一下,如果你来选择索引,会选择哪一个呢?
为了便于分析我们先来看一下a、b这两个索引的结构图。
![](https://static001.geekbang.org/resource/image/1d/b9/1d037f92063e800c3bfff3f4dbf1a2b9.png?wh=1142*856)
图7 a、b索引的结构图
如果使用索引a进行查询那么就是扫描索引a的前1000个值然后取到对应的id再到主键索引上去查出每一行然后根据字段b来过滤。显然这样需要扫描1000行。
如果使用索引b进行查询那么就是扫描索引b的最后50001个值与上面的执行过程相同也是需要回到主键索引上取值再判断所以需要扫描50001行。
所以你一定会想如果使用索引a的话执行速度明显会快很多。那么下面我们就来看看到底是不是这么一回事儿。
图8是执行explain的结果。
```
mysql> explain select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 1;
```
![](https://static001.geekbang.org/resource/image/48/b8/483bcb1ef3bb902844e80d9cbdd73ab8.png?wh=1891*163)
图8 使用explain方法查看执行计划 2
可以看到返回结果中key字段显示这次优化器选择了索引b而rows字段显示需要扫描的行数是50198。
从这个结果中,你可以得到两个结论:
1. 扫描行数的估计值依然不准确;
2. 这个例子里MySQL又选错了索引。
# 索引选择异常和处理
其实大多数时候优化器都能找到正确的索引但偶尔你还是会碰到我们上面举例的这两种情况原本可以执行得很快的SQL语句执行速度却比你预期的慢很多你应该怎么办呢
**一种方法是像我们第一个例子一样采用force index强行选择一个索引。**MySQL会根据词法解析的结果分析出可能可以使用的索引作为候选项然后在候选列表中依次判断每个索引需要扫描多少行。如果force index指定的索引在候选索引列表中就直接选择这个索引不再评估其他索引的执行代价。
我们来看看第二个例子。刚开始分析时我们认为选择索引a会更好。现在我们就来看看执行效果
![](https://static001.geekbang.org/resource/image/95/54/9582401a6bed6cb8fd803c9555750b54.png?wh=1235*115)
图9 使用不同索引的语句执行耗时
可以看到原本语句需要执行2.23秒而当你使用force index(a)的时候只用了0.05秒比优化器的选择快了40多倍。
也就是说优化器没有选择正确的索引force index起到了“矫正”的作用。
不过很多程序员不喜欢使用force index一来这么写不优美二来如果索引改了名字这个语句也得改显得很麻烦。而且如果以后迁移到别的数据库的话这个语法还可能会不兼容。
但其实使用force index最主要的问题还是变更的及时性。因为选错索引的情况还是比较少出现的所以开发的时候通常不会先写上force index。而是等到线上出现问题的时候你才会再去修改SQL语句、加上force index。但是修改之后还要测试和发布对于生产系统来说这个过程不够敏捷。
所以,数据库的问题最好还是在数据库内部来解决。那么,在数据库里面该怎样解决呢?
既然优化器放弃了使用索引a说明a还不够合适所以**第二种方法就是我们可以考虑修改语句引导MySQL使用我们期望的索引。**比如在这个例子里显然把“order by b limit 1” 改成 “order by b,a limit 1” ,语义的逻辑是相同的。
我们来看看改之后的效果:
![](https://static001.geekbang.org/resource/image/14/94/14cd598e52a2b72dd334a42603e5b894.png?wh=1623*146)
图10 order by b,a limit 1 执行结果
之前优化器选择使用索引b是因为它认为使用索引b可以避免排序b本身是索引已经是有序的了如果选择索引b的话不需要再做排序只需要遍历所以即使扫描行数多也判定为代价更小。
现在order by b,a 这种写法要求按照b,a排序就意味着使用这两个索引都需要排序。因此扫描行数成了影响决策的主要条件于是此时优化器选了只需要扫描1000行的索引a。
当然这种修改并不是通用的优化手段只是刚好在这个语句里面有limit 1因此如果有满足条件的记录 order by b limit 1和order by b,a limit 1 都会返回b是最小的那一行逻辑上一致才可以这么做。
如果你觉得修改语义这件事儿不太好这里还有一种改法图11是执行效果。
```
mysql> select * from (select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 100)alias limit 1;
```
![](https://static001.geekbang.org/resource/image/b1/d7/b1a2ad43c78477d7f93dbc692cbaa0d7.png?wh=1824*165)
图11 改写SQL的explain
在这个例子里我们用limit 100让优化器意识到使用b索引代价是很高的。其实是我们根据数据特征诱导了一下优化器也不具备通用性。
**第三种方法是,在有些场景下,我们可以新建一个更合适的索引,来提供给优化器做选择,或删掉误用的索引。**
不过在这个例子中我没有找到通过新增索引来改变优化器行为的方法。这种情况其实比较少尤其是经过DBA索引优化过的库再碰到这个bug找到一个更合适的索引一般比较难。
如果我说还有一个方法是删掉索引b你可能会觉得好笑。但实际上我碰到过两次这样的例子最终是DBA跟业务开发沟通后发现这个优化器错误选择的索引其实根本没有必要存在于是就删掉了这个索引优化器也就重新选择到了正确的索引。
# 小结
今天我们一起聊了聊索引统计的更新机制,并提到了优化器存在选错索引的可能性。
对于由于索引统计信息不准确导致的问题你可以用analyze table来解决。
而对于其他优化器误判的情况你可以在应用端用force index来强行指定索引也可以通过修改语句来引导优化器还可以通过增加或者删除索引来绕过这个问题。
你可能会说今天这篇文章后面的几个例子怎么都没有展开说明其原理。我要告诉你的是今天的话题我们面对的是MySQL的bug每一个展开都必须深入到一行行代码去量化实在不是我们在这里应该做的事情。
所以,我把我用过的解决方法跟你分享,希望你在碰到类似情况的时候,能够有一些思路。
你平时在处理MySQL优化器bug的时候有什么别的方法也发到评论区分享一下吧。
最后我给你留下一个思考题。前面我们在构造第一个例子的过程中通过session A的配合让session B删除数据后又重新插入了一遍数据然后就发现explain结果中rows字段从10001变成37000多。
而如果没有session A的配合只是单独执行delete from t 、call idata()、explain这三句话会看到rows字段其实还是10000左右。你可以自己验证一下这个结果。
这是什么原因呢?也请你分析一下吧。
你可以把你的分析结论写在留言区里,我会在下一篇文章的末尾和你讨论这个问题。感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一起阅读。
# 上期问题时间
我在上一篇文章最后留给你的问题是如果某次写入使用了change buffer机制之后主机异常重启是否会丢失change buffer和数据。
这个问题的答案是不会丢失留言区的很多同学都回答对了。虽然是只更新内存但是在事务提交的时候我们把change buffer的操作也记录到redo log里了所以崩溃恢复的时候change buffer也能找回来。
在评论区有同学问到merge的过程是否会把数据直接写回磁盘这是个好问题。这里我再为你分析一下。
merge的执行流程是这样的
1. 从磁盘读入数据页到内存(老版本的数据页);
2. 从change buffer里找出这个数据页的change buffer 记录(可能有多个),依次应用,得到新版数据页;
3. 写redo log。这个redo log包含了数据的变更和change buffer的变更。
到这里merge过程就结束了。这时候数据页和内存中change buffer对应的磁盘位置都还没有修改属于脏页之后各自刷回自己的物理数据就是另外一个过程了。
评论区留言点赞板:
> @某、人 把02篇的redo log更新细节和change buffer的更新串了起来
> @Ivan 回复了其他同学的问题并联系到Checkpoint机制
> @约书亚 问到了merge和redolog的关系。