gitbook/MySQL实战45讲/docs/70848.md
2022-09-03 22:05:03 +08:00

213 lines
17 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 09 | 普通索引和唯一索引,应该怎么选择?
今天的正文开始前,我要特意感谢一下评论区几位留下高质量留言的同学。
用户名是 @某、人 的同学,对文章的知识点做了梳理,然后提了关于事务可见性的问题,就是先启动但是后提交的事务,对数据可见性的影响。@夏日雨同学也提到了这个问题,我在置顶评论中回复了,今天的文章末尾也会再展开说明。@Justin和@倪大人两位同学提了两个好问题。
对于能够引发更深一步思考的问题,我会在回复的内容中写上“好问题”三个字,方便你搜索,你也可以去看看他们的留言。
非常感谢大家很细致地看文章,并且留下了那么多和很高质量的留言。知道文章有给大家带来一些新理解,对我来说是一个很好的鼓励。同时,也让其他认真看评论区的同学,有机会发现一些自己还没有意识到的、但可能还不清晰的知识点,这也在总体上提高了整个专栏的质量。再次谢谢你们。
好了,现在就回到我们今天的正文内容。
在前面的基础篇文章中,我给你介绍过索引的基本概念,相信你已经了解了唯一索引和普通索引的区别。今天我们就继续来谈谈,在不同的业务场景下,应该选择普通索引,还是唯一索引?
假设你在维护一个市民系统每个人都有一个唯一的身份证号而且业务代码已经保证了不会写入两个重复的身份证号。如果市民系统需要按照身份证号查姓名就会执行类似这样的SQL语句
```
select name from CUser where id_card = 'xxxxxxxyyyyyyzzzzz';
```
所以你一定会考虑在id\_card字段上建索引。
由于身份证号字段比较大我不建议你把身份证号当做主键那么现在你有两个选择要么给id\_card字段创建唯一索引要么创建一个普通索引。如果业务代码已经保证了不会写入重复的身份证号那么这两个选择逻辑上都是正确的。
现在我要问你的是,从性能的角度考虑,你选择唯一索引还是普通索引呢?选择的依据是什么呢?
简单起见我们还是用第4篇文章[《深入浅出索引(上)》](https://time.geekbang.org/column/article/69236)中的例子来说明,假设字段 k 上的值都不重复。
![](https://static001.geekbang.org/resource/image/1e/46/1ed9536031d6698570ea175a7b7f9a46.png)
图1 InnoDB的索引组织结构
接下来,我们就从这两种索引对查询语句和更新语句的性能影响来进行分析。
# 查询过程
假设,执行查询的语句是 select id from T where k=5。这个查询语句在索引树上查找的过程先是通过B+树从树根开始,按层搜索到叶子节点,也就是图中右下角的这个数据页,然后可以认为数据页内部通过二分法来定位记录。
* 对于普通索引来说,查找到满足条件的第一个记录(5,500)后需要查找下一个记录直到碰到第一个不满足k=5条件的记录。
* 对于唯一索引来说,由于索引定义了唯一性,查找到第一个满足条件的记录后,就会停止继续检索。
那么,这个不同带来的性能差距会有多少呢?答案是,微乎其微。
你知道的InnoDB的数据是按数据页为单位来读写的。也就是说当需要读一条记录的时候并不是将这个记录本身从磁盘读出来而是以页为单位将其整体读入内存。在InnoDB中每个数据页的大小默认是16KB。
因为引擎是按页读写的所以说当找到k=5的记录的时候它所在的数据页就都在内存里了。那么对于普通索引来说要多做的那一次“查找和判断下一条记录”的操作就只需要一次指针寻找和一次计算。
当然如果k=5这个记录刚好是这个数据页的最后一个记录那么要取下一个记录必须读取下一个数据页这个操作会稍微复杂一些。
但是我们之前计算过对于整型字段一个数据页可以放近千个key因此出现这种情况的概率会很低。所以我们计算平均性能差异时仍可以认为这个操作成本对于现在的CPU来说可以忽略不计。
# 更新过程
为了说明普通索引和唯一索引对更新语句性能的影响这个问题我需要先跟你介绍一下change buffer。
当需要更新一个数据页时如果数据页在内存中就直接更新而如果这个数据页还没有在内存中的话在不影响数据一致性的前提下InnoDB会将这些更新操作缓存在change buffer中这样就不需要从磁盘中读入这个数据页了。在下次查询需要访问这个数据页的时候将数据页读入内存然后执行change buffer中与这个页有关的操作。通过这种方式就能保证这个数据逻辑的正确性。
需要说明的是虽然名字叫作change buffer实际上它是可以持久化的数据。也就是说change buffer在内存中有拷贝也会被写入到磁盘上。
将change buffer中的操作应用到原数据页得到最新结果的过程称为merge。除了访问这个数据页会触发merge外系统有后台线程会定期merge。在数据库正常关闭shutdown的过程中也会执行merge操作。
显然如果能够将更新操作先记录在change buffer减少读磁盘语句的执行速度会得到明显的提升。而且数据读入内存是需要占用buffer pool的所以这种方式还能够避免占用内存提高内存利用率。
那么,**什么条件下可以使用change buffer呢**
对于唯一索引来说,所有的更新操作都要先判断这个操作是否违反唯一性约束。比如,要插入(4,400)这个记录就要先判断现在表中是否已经存在k=4的记录而这必须要将数据页读入内存才能判断。如果都已经读入到内存了那直接更新内存会更快就没必要使用change buffer了。
因此唯一索引的更新就不能使用change buffer实际上也只有普通索引可以使用。
change buffer用的是buffer pool里的内存因此不能无限增大。change buffer的大小可以通过参数innodb\_change\_buffer\_max\_size来动态设置。这个参数设置为50的时候表示change buffer的大小最多只能占用buffer pool的50%。
现在你已经理解了change buffer的机制那么我们再一起来看看**如果要在这张表中插入一个新记录(4,400)的话InnoDB的处理流程是怎样的。**
第一种情况是,**这个记录要更新的目标页在内存中**。这时InnoDB的处理流程如下
* 对于唯一索引来说找到3和5之间的位置判断到没有冲突插入这个值语句执行结束
* 对于普通索引来说找到3和5之间的位置插入这个值语句执行结束。
这样看来普通索引和唯一索引对更新语句性能影响的差别只是一个判断只会耗费微小的CPU时间。
但,这不是我们关注的重点。
第二种情况是,**这个记录要更新的目标页不在内存中**。这时InnoDB的处理流程如下
* 对于唯一索引来说,需要将数据页读入内存,判断到没有冲突,插入这个值,语句执行结束;
* 对于普通索引来说则是将更新记录在change buffer语句执行就结束了。
将数据从磁盘读入内存涉及随机IO的访问是数据库里面成本最高的操作之一。change buffer因为减少了随机磁盘访问所以对更新性能的提升是会很明显的。
之前我就碰到过一件事儿有个DBA的同学跟我反馈说他负责的某个业务的库内存命中率突然从99%降低到了75%,整个系统处于阻塞状态,更新语句全部堵住。而探究其原因后,我发现这个业务有大量插入数据的操作,而他在前一天把其中的某个普通索引改成了唯一索引。
# change buffer的使用场景
通过上面的分析你已经清楚了使用change buffer对更新过程的加速作用也清楚了change buffer只限于用在普通索引的场景下而不适用于唯一索引。那么现在有一个问题就是普通索引的所有场景使用change buffer都可以起到加速作用吗
因为merge的时候是真正进行数据更新的时刻而change buffer的主要目的就是将记录的变更动作缓存下来所以在一个数据页做merge之前change buffer记录的变更越多也就是这个页面上要更新的次数越多收益就越大。
因此对于写多读少的业务来说页面在写完以后马上被访问到的概率比较小此时change buffer的使用效果最好。这种业务模型常见的就是账单类、日志类的系统。
反过来假设一个业务的更新模式是写入之后马上会做查询那么即使满足了条件将更新先记录在change buffer但之后由于马上要访问这个数据页会立即触发merge过程。这样随机访问IO的次数不会减少反而增加了change buffer的维护代价。所以对于这种业务模式来说change buffer反而起到了副作用。
# 索引选择和实践
回到我们文章开头的问题,普通索引和唯一索引应该怎么选择。其实,这两类索引在查询能力上是没差别的,主要考虑的是对更新性能的影响。所以,我建议你尽量选择普通索引。
如果所有的更新后面都马上伴随着对这个记录的查询那么你应该关闭change buffer。而在其他情况下change buffer都能提升更新性能。
在实际使用中你会发现普通索引和change buffer的配合使用对于数据量大的表的更新优化还是很明显的。
特别地在使用机械硬盘时change buffer这个机制的收效是非常显著的。所以当你有一个类似“历史数据”的库并且出于成本考虑用的是机械硬盘时那你应该特别关注这些表里的索引尽量使用普通索引然后把change buffer 尽量开大,以确保这个“历史数据”表的数据写入速度。
# change buffer 和 redo log
理解了change buffer的原理你可能会联想到我在前面文章中和你介绍过的redo log和WAL。
在前面文章的评论中我发现有同学混淆了redo log和change buffer。WAL 提升性能的核心机制,也的确是尽量减少随机读写,这两个概念确实容易混淆。所以,这里我把它们放到了同一个流程里来说明,便于你区分这两个概念。
> 备注这里你可以再回顾下第2篇文章[《日志系统一条SQL更新语句是如何执行的》](https://time.geekbang.org/column/article/68633)中的相关内容。
现在,我们要在表上执行这个插入语句:
```
mysql> insert into t(id,k) values(id1,k1),(id2,k2);
```
这里我们假设当前k索引树的状态查找到位置后k1所在的数据页在内存(InnoDB buffer pool)中k2所在的数据页不在内存中。如图2所示是带change buffer的更新状态图。
![](https://static001.geekbang.org/resource/image/98/a3/980a2b786f0ea7adabef2e64fb4c4ca3.png)
图2 带change buffer的更新过程
分析这条更新语句你会发现它涉及了四个部分内存、redo logib\_log\_fileX、 数据表空间t.ibd、系统表空间ibdata1
这条更新语句做了如下的操作(按照图中的数字顺序):
1. Page 1在内存中直接更新内存
2. Page 2没有在内存中就在内存的change buffer区域记录下“我要往Page 2插入一行”这个信息
3. 将上述两个动作记入redo log中图中3和4
做完上面这些,事务就可以完成了。所以,你会看到,执行这条更新语句的成本很低,就是写了两处内存,然后写了一处磁盘(两次操作合在一起写了一次磁盘),而且还是顺序写的。
同时,图中的两个虚线箭头,是后台操作,不影响更新的响应时间。
那在这之后的读请求,要怎么处理呢?
比如,我们现在要执行 select \* from t where k in (k1, k2)。这里,我画了这两个读请求的流程图。
如果读语句发生在更新语句后不久内存中的数据都还在那么此时的这两个读操作就与系统表空间ibdata1和 redo logib\_log\_fileX无关了。所以我在图中就没画出这两部分。
![](https://static001.geekbang.org/resource/image/6d/8e/6dc743577af1dbcbb8550bddbfc5f98e.png)
图3 带change buffer的读过程
从图中可以看到:
1. 读Page 1的时候直接从内存返回。有几位同学在前面文章的评论中问到WAL之后如果读数据是不是一定要读盘是不是一定要从redo log里面把数据更新以后才可以返回其实是不用的。你可以看一下图3的这个状态虽然磁盘上还是之前的数据但是这里直接从内存返回结果结果是正确的。
2. 要读Page 2的时候需要把Page 2从磁盘读入内存中然后应用change buffer里面的操作日志生成一个正确的版本并返回结果。
可以看到直到需要读Page 2的时候这个数据页才会被读入内存。
所以,如果要简单地对比这两个机制在提升更新性能上的收益的话,**redo log 主要节省的是随机写磁盘的IO消耗转成顺序写而change buffer主要节省的则是随机读磁盘的IO消耗。**
# 小结
今天我从普通索引和唯一索引的选择开始和你分享了数据的查询和更新过程然后说明了change buffer的机制以及应用场景最后讲到了索引选择的实践。
由于唯一索引用不上change buffer的优化机制因此如果业务可以接受从性能角度出发我建议你优先考虑非唯一索引。
最后,又到了思考题时间。
通过图2你可以看到change buffer一开始是写内存的那么如果这个时候机器掉电重启会不会导致change buffer丢失呢change buffer丢失可不是小事儿再从磁盘读入数据可就没有了merge过程就等于是数据丢失了。会不会出现这种情况呢
你可以把你的思考和观点写在留言区里,我会在下一篇文章的末尾和你讨论这个问题。感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一起阅读。
**补充:**
评论区大家对“是否使用唯一索引”有比较多的讨论,主要是纠结在“业务可能无法确保”的情况。这里,我再说明一下:
* 首先,业务正确性优先。咱们这篇文章的前提是“业务代码已经保证不会写入重复数据”的情况下,讨论性能问题。如果业务不能保证,或者业务就是要求数据库来做约束,那么没得选,必须创建唯一索引。这种情况下,本篇文章的意义在于,如果碰上了大量插入数据慢、内存命中率低的时候,可以给你多提供一个排查思路。
* 然后,在一些“归档库”的场景,你是可以考虑使用普通索引的。比如,线上数据只需要保留半年,然后历史数据保存在归档库。这时候,归档数据已经是确保没有唯一键冲突了。要提高归档效率,可以考虑把表里面的唯一索引改成普通索引。
# 上期问题时间
上期的问题是:如何构造一个“数据无法修改”的场景。评论区里已经有不少同学给出了正确答案,这里我再描述一下。
![](https://static001.geekbang.org/resource/image/be/ae/be7a4d8af04cdf93aaa11108933559ae.png)
这样session A看到的就是我截图的效果了。
其实,还有另外一种场景,同学们在留言区都还没有提到。
![](https://static001.geekbang.org/resource/image/e2/fa/e24a0689571337959138d787c408defa.png)
这个操作序列跑出来session A看的内容也是能够复现我截图的效果的。这个session B启动的事务比A要早其实是上期我们描述事务版本的可见性规则时留的彩蛋因为规则里还有一个“活跃事务的判断”我是准备留到这里再补充的。
当我试图在这里讲述完整规则的时候发现第8篇文章[《事务到底是隔离的还是不隔离的?》](https://time.geekbang.org/column/article/70562)中的解释引入了太多的概念,以致于分析起来非常复杂。
因此我重写了第8篇这样我们人工去判断可见性的时候才会更方便。【看到这里我建议你能够再重新打开第8篇文章并认真学习一次。如果学习的过程中有任何问题也欢迎你给我留言】
用新的方式来分析session B的更新为什么对session A不可见就是在session A视图数组创建的瞬间session B是活跃的属于“版本未提交不可见”这种情况。
业务中如果要绕过这类问题,@约书亚提供了一个“乐观锁”的解法,大家可以去上一篇的留言区看一下。
评论区留言点赞板:
> @某、人、@夏日雨、@周巘、@李金刚 等同学提了一个很好的问题就是我们今天答案的session B 的情况;
> @justin 提到了提交和未提交版本的区别对待,@倪大人 提到了读提交和当前读的区别,都是经过了思考后提出的好问题,大家可以去留言区看看。