You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

115 lines
15 KiB
Markdown

2 years ago
# 特别加餐 | 高性能检索系统中的设计漫谈
你好,我是陈东。欢迎来到检索专栏的第三次加餐时间。
在进阶篇的讲解过程中我们经常会提起一些设计思想包括索引与数据分离、减少磁盘IO、读写分离和分层处理等方案。这些设计思想看似很简单但是应用非常广泛在许多复杂的高性能系统中我们都能看到类似的设计和实现。不过前面我们并没有深入来讲你可能理解得还不是很透彻。
所以,今天我会把专栏中出现过的相关案例进行汇总和对比,再结合相应的案例扩展,以及进一步的分析讨论,来帮助你更好地理解这些设计思想的本质。并且,我还会总结出一些可以参考的通用经验,让你能更好地设计和实现自己的高性能检索系统。
## 设计思想一:索引与数据分离
我要说的第一个设计思想就是索引与数据分离。索引与数据分离是一种解耦的设计思想,它能帮助我们更好地聚焦在索引的优化上。
比如说,对于无法完全加载到内存中的数据,对它进行索引和数据分离之后,我们就可以利用内存的高性能来加速索引的访问了。[第6讲](https://time.geekbang.org/column/article/222768)中的线性索引的设计以及B+树中区分中间节点和叶子节点的设计,就都使用了索引和数据分离的设计思想。
那如果索引和数据都可以加载在内存中了,我们还需要使用索引和数据分离吗?在这种情况下,将索引和数据分离,我们依然可以提高检索效率。以[第5讲](https://time.geekbang.org/column/article/219268)中查找唐诗的场景为例我们将所有的唐诗存在一个正排索引中然后以关键词为Key建立倒排索引。倒排索引中只会记录唐诗的ID不会记录每首唐诗的内容。这样做会有以下3个优点。
1. 节约存储空间我们不需要在posting list中重复记录唐诗的内容。
2. 减少检索过程中的复制代价。在倒排索引的检索过程中我们需要将posting list中的元素进行多次比较和复制等操作。如果每个元素都存了复杂的数据而不是简单的ID那复制代价我们也不能忽略。
3. 保持索引的简单有效,让我们可以使用更多的优化手段加速检索过程。在[加餐1](https://time.geekbang.org/column/article/221292)中我们讲过如果posting list中都存着简单ID的话我们可以将posting list转为位图来存储和检索以及还可以使用Roaring Bitmap来提高检索效率。
![](https://static001.geekbang.org/resource/image/d1/9c/d1cfadb61b0160b95c63d443cd5fb29c.jpg "索引与数据分离的设计示意图")
总结来说就是,索引与数据分离的设计理念可以让索引保持简洁和高效,来帮助我们聚焦在索引的优化技术上。因此,保持索引的简洁高效是我们需要重点关注的。
当然,我相信你刚开始设计一个新系统的时候,可以很容易做到这一点。但也正因为它非常基础,恰恰就成了我们工作中最容易忽视的地方。
而一旦我们忽视了,那随着系统的变化,索引中掺杂的数据越来越多、越来越复杂,系统的检索性能就会慢慢下降。这时,我们需要牢记**奥卡姆剃刀原理,也就是“如无必要,勿增实体”这个基础原则**,来保证索引一直处于简洁高效的状态。
当然,索引和数据分离也会带来一些弊端,如不一致性。怎么理解呢?我们可以考虑这么一个场景:数据已经修改或是删除了,但索引还没来得及更新。如果这个时候我们访问索引,那得到的结果就很有可能是错误的。
那这个错误的结果会造成什么影响呢?这就要分情况讨论了。
对于不要求强一致性的应用场景比如说在某些应用中更新用户头像时我们可以接受这种临时性错误只要能保证系统的最终一致性即可。但如果在要求强一致性的应用场景中比如说在金融系统中进行和金钱有关的操作时我们就需要做好一致性管理我们可以对索引和数据进行统一加锁处理或者直接将索引和数据合并。这么说比较抽象我们以MySQL中的B+树为例,来看看它是怎么管理一致性的。
MySQL中的B+树实现其实有两种一种是MyISAM引擎另一种是InnoDB引擎。它们的核心区别就在于数据和索引是否是分离的。
在MyISAM引擎中B+树的叶子节点仅存储了数据的位置指针这是一种索引和数据分离的设计方案叫作非聚集索引。如果要保证MyISAM的数据一致性那我们需要在表级别上进行加锁处理。
![](https://static001.geekbang.org/resource/image/dc/c9/dc4d1906373946db6ab45dae64eb9dc9.jpg "MyISAM的索引数据分离设计")
在InnoDB中B+树的叶子节点直接存储了具体数据这是一种索引和数据一体的方案。叫作聚集索引。由于数据直接就存在索引的叶子节点中因此InnoDB不需要给全表加锁来保证一致性它只需要支持行级的锁就可以了。
![](https://static001.geekbang.org/resource/image/89/fc/89568b50381a7750bfb6d934e8a208fc.jpg "InnoDB的索引数据一体设计")
所以你看,索引和数据分离也不是万能的“银弹”,我们需要结合具体的使用场景,来进行合适的设计。
## 设计思想二减少磁盘IO
第6讲我们说过在大规模系统中数据往往无法全部存储在内存中。因此系统必然会涉及磁盘的读写操作。在这种应用场景下**尽可能减少磁盘IO往往是保证系统具有高性能的核心设计思路**。
减少磁盘IO的一种常见设计**是将频繁读取的数据加载到内存中**。前面讲到的索引和数据分离的方案,就使得我们可以优先将索引加载在内存中,从而提高系统检索效率。
当频繁读取的数据也就是索引太大,而无法装入内存的时候,我们不会简单地使用跳表或者哈希表加载索引,而会采用更复杂的,具有压缩性质的前缀树这类数据结构和算法来压缩索引,让它能够放入内存中。
尽管单纯从数据结构和检索效率来看前缀树的检索性能是低于跳表或者哈希表的但如果我们考虑到内存和磁盘在性能上的巨大差异的话那这种压缩索引的优势就体现出来了。最典型的例子就是lucene中用FSTFinite State Transducer中文有限状态转换器来存索引字典。
除了使用索引和数据分离,在高维空间中使用[乘积量化](https://time.geekbang.org/column/article/231760)对数据进行压缩和检索,以及使用[分布式技术](https://time.geekbang.org/column/article/225869)将索引分片加载到不同的机器的内存中也都可以减少磁盘的IO操作。
而**如果不可避免要对磁盘进行读写,那我们要尽量避免随机读写**。我们可以使用[第7讲](https://time.geekbang.org/column/article/222768)中学习到的使用预写日志技术以及利用磁盘的局部性原理来顺序写大批量数据从而提高磁盘访问效率。这些都是一些优秀的开源软件使用的设计方案比如我们熟悉的基于LSM树的Hbase和Kafka就都采用了类似的设计。
你也许会问如果改用SSD来存储数据 SSD具有高性能的随机读写能力那我们是不是就不用再关注减少磁盘IO的设计思想和技术了当然不是关于这个问题我们可以从两方面来分析。
一方面虽然SSD的确比磁盘快了许多但SSD的性能和内存相比依然会有1到2个数量级的巨大差距。甚至不同型号的SSD之间性能也可能会有成倍的差距。再有俗话说“一分钱一分货”内存和SSD的价格差异其实也反映了它们随机读写性能的差距。因此内存是最快的我们依然要尽可能把数据都存放在内存中。
另一方面SSD的批量顺序写依然比随机写有更高的效率。为什么呢让我们先来了解一下SSD的工作原理。对于SSD而言它以页Page一个Page为4K-16K为读写单位以块Block256个Page为一个Block为垃圾回收单位。由于SSD不支持原地更新的方式修改一个页因此当我们写数据到页中时SSD需要将原有的页标记为失效并将原来该页的数据和新写入的数据一起写入到一个新的页中。那被标记为无效的页会被垃圾回收机制处理而垃圾回收又是一个很慢的操作过程。因此随机写会造成大量的垃圾块从而导致系统性能下降。所以对于SSD而言批量顺序写的性能依然会大幅高于随机写。
总结来说,无论存储介质技术如何变化,将索引数据尽可能地全部存储在最快的介质中,始终是保证高性能检索的一个重要设计思路。此外,对于每种介质的读写性能,我们都需要进行了解,这样才能做出合理的高性能设计。
## 设计思想三:读写分离
接下来,我们再说说读写分离,它也是很常见的一种设计方案。在高并发的场景下,如果系统需要对同一份数据同时进行读和写的操作,为了保证线程安全以及数据一致性,我们往往需要对数据操作加锁,但这会导致系统的性能降低。
而读写分离的设计方案,可以让所有的读操作只读一份数据,让所有的写操作作用在另一份数据上。这样就不存在读写竞争的场景,系统也就不需要加锁和切换了。在读操作频率高于写操作的应用场景中,使用读写分离的设计思想,可以大幅度提升系统的性能。很多我们熟悉的架构都采用这样的设计。
比如说MySQL的Master - Slave架构。在MySQL的Master - Slave的架构设计中master负责接收写请求。在数据写入master以后master会和多个slave进行同步将数据更新到所有的slave中。所有的slave仅负责处理读请求。这样MySQL就可以完成读写分离了。
![](https://static001.geekbang.org/resource/image/d2/27/d2c548887e5c8617ca38069b50ed5c27.jpg "Master slave架构实现读写分离示意图")
其实不仅仅是MySQLRedis中也存在类似的Master - Slave的读写分离设计。包括在LevelDB中MemTable - Immutable MemTable 的设计,其实也是读写分离的一个具体案例。
除了MySQL和Redis这类的数据存储系统在倒排索引类的检索系统中其实也有着类似的设计思路。比如说在[第9讲](https://time.geekbang.org/column/article/222807)中我们讲过对于索引更新这样的功能我们往往会使用Double Buffer机制以及全量索引+增量索引的机制来实现读写分离。通过这样的机制,我们才能保证搜索引擎、广告引擎、推荐引擎等系统能在高并发的应用场景下,依然具备实时的索引更新能力。
## 设计思想四:分层处理
在大规模检索系统中,不同数据的价值是不一样的,如果我们都使用同样的处理技术,其实会造成系统资源的浪费。因此,将数据分层处理也是非常基础且重要的一种设计。
最典型的例子就是在[第12讲](https://time.geekbang.org/column/article/227161)中我们提到的非精准Top K检索 + 精准 Top K检索的设计思路了。简单回顾一下如果我们对所有的检索结果集都进行耗时复杂的精准打分那会带来大量的资源浪费。所以我们会先进行初步筛选快速选出可能比较好的结果再进行精准筛选。这样的分层打分机制其实非常像我们在招聘过程中先进行简历筛选再进行面试的处理流程。可见这种设计思路有着非常广泛的使用场景。
![](https://static001.geekbang.org/resource/image/81/56/81620b228164d406870a6136731d2e56.jpg "分层检索+分层打分示意图")
包括我们前面提到的将索引放在内存中而不是磁盘上,这其实也是一种分层处理的思路。我们对索引进行分层,把最有价值的索引放在内存中,保证检索效率。而价值较低的大规模索引,则可以存在磁盘中。
如果你再仔细回想一下就会发现这其实和第7讲中LSM树将它认为最有价值的近期数据放在内存中然后将其他数据放在磁盘上的思路是非常相似的。甚至是硬件设计也是这样CPU中的一级缓存和二级缓存也是基于同样的分层设计理念将最有价值的数据存在离CPU最近也最贵的介质中。
![](https://static001.geekbang.org/resource/image/2b/dc/2b6ac0f3dcb370c0251ed159dca3bfdc.jpg "硬件分层架构设计")
此外,还有一个典型的分层处理的设计实例就是,为了保证系统的稳定性,我们往往需要在系统负载过高时,启用自动降级机制。而好的自动降级机制,其实也是对流量进行分层处理,将系统认为有价值的流量保留,然后抛弃低价值的流量。
总结来说,如果我们在应用场景中,对少数的数据进行处理,能带来大量的产出,那分层处理就是一种可行的设计思路。这其实就是**二八原则20%的资源带来了80%的产出**。
## 重点回顾
今天我们讨论了索引和数据分离、减少磁盘IO、读写分离、以及分层处理这四种设计思想。你会发现这些设计思想说起来并不复杂但几乎无处不在。为了方便你使用我总结了一下它们在使用上的一些通用经验。
首先,索引和数据分离能让我们遵循“奥卡姆剃刀原则”,聚焦于索引的优化技术上。但我们还要注意,索引和数据分离可能会带来数据的不一致性,因此需要合理使用。
其次减少磁盘IO有两种主要思路一种是尽可能将索引加载到最快的内存中另一种是对磁盘进行批量顺序读写。并且即便存储介质技术在不断变化但我们只要保持关注这两个优化方向就可以设计出高性能的系统。
接着在读写分离的设计中使用Master - Slave的架构设计也是一种常见方案无论是MySQL还是Redis都采用了这种设计方案。而基于倒排索引的检索系统也有着类似的Double Buffer和全量索引结合增量索引的机制。
最后,分层处理其实就是遵循二八原则,将核心资源用来处理核心的数据,从而提升整体系统的性能。
当你要设计或实现高并发系统时,你可以试试使用这些思想来指导你设计和审视系统,相信这会让你的系统变得更加高效。
## 课堂讨论
对于今天我们讨论的这些设计思想,你有什么案例可以分享出来吗?
欢迎在留言区畅所欲言,说出你的案例和思考。如果有收获,也欢迎把这一讲分享给你的朋友。