gitbook/业务开发算法50讲/docs/477414.md
2022-09-03 22:05:03 +08:00

232 lines
17 KiB
Markdown
Raw Blame History

This file contains invisible Unicode characters

This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 15LRU在虚拟内存中页面是如何置换的
你好,我是微扰君。
今天我们继续讲解操作系统中另一个常用的算法, LRU算法Least recently used也就是最近最少使用页面置换算法。这是操作系统中常用的内存置换策略之一在内存有限的情况下需要有一种策略帮助我们把此刻要用到的外存中的数据置换到内存里。该算法也同样适用于许多类似的缓存淘汰场景比如数据库缓存页置换、Redis缓存置换等。
在开始讲解LRU算法本身之前我们先来了解一下这个算法在操作系统中到底解决了什么问题。
## 操作系统的缓存淘汰
我们知道,计算机是建立在物理世界上的,底层的存储计算需要依赖许多复杂的硬件:比如内存、磁盘、纷繁的逻辑电路等。所以**操作系统的一大作用就是,通过虚拟和抽象为应用开发者提供了一套操作硬件的统一接口**,而分页机制的发明,就是为了不需要让用户过度操心物理内存的管理和容量。
通过虚拟内存和分页机制,用户可以在一个大而连续的逻辑地址和非连续的物理地址之间,建立起映射。其中,物理地址既可以真的指向物理内存,也可以指向硬盘或者其他可以被寻址的外部存储介质。
用户的程序可以使用比物理内存容量大得多的连续地址空间;而计算机在运行程序的时候,也不再需要把进程所有信息都加载到内存里,只加载几个当前需要的页就可以了。
![图片](https://static001.geekbang.org/resource/image/0c/08/0ceee08361f2d79eda633e9yyc3ca208.jpg?wh=1920x1145)
但是内存容量并不是无限的,**访问到不在内存中的其他页,硬件会触发“缺页”中断,操作系统会在内存中选出一个页,把它替换为需要访问的目标页**。这样我们才能访问到需要的数据。如果你对操作系统的内存管理机制感兴趣,推荐阅读[CSAPP](https://book.douban.com/subject/26912767)。
这种场景在各种需要缓存的系统中也很常见。比如知名的缓存中间件Redis就是利用内存读取数据的高效性去缓存其他可能更慢的数据源的数据以达到更快的IO速度也用到了缓存置换算法。毕竟任何系统的存储空间都不是无限的当我们缓存的数据越来越多必然需要置换掉其中一部分数据。
而如何选择一个合适的页面或缓存内容来替换就是我们今天的重点LRU算法主要讨论的内容。带着这个问题我们开始今天的学习。
## 置换策略
具体怎么样的置换策略是更合理的呢?
我们主要观察的指标是**缓存命中率**:在整个系统的生命周期里对比数据访问时,可以直接从缓存中读到的次数和数据访问的总次数。
命中率越高就代表越多数据可以直接从缓存中获取到系统更少访问成本更高的存储系统的整体时延就会降低。以操作系统为例命中率高就意味着我们发生缺页中断和从外存中获取数据的次数会减少而访问内存的速度比访问外存要快得多CPU利用率当然也就会更高。
在操作系统中页面置换策略其实有很多种你可能也知道一些比较常见的包括FIFO先进先出、LFU最不经常使用、LRU最近最少使用等。页面置换算法在上世纪六七十年代曾经是学术界讨论的热点。
其中LRU是实际应用最广的策略因为它有着比较高的命中率并且实现非常简单在虚拟内存系统中效果非常好。主要思想就是**当我们需要置换内存的时候,首先去替换最久没有被访问过的数据,这能很好利用数据的时间局部性**,因为我们倾向认为最近被访问过的数据,在整个系统的生命周期里,有更大机会被访问到。
当然LRU也不都是最优的比如在特定负载的网络代理缓存场景下很可能使用LRU就并不是一个最佳选择因为网络负载很可能在不同的时候变化很大。但是毫无疑问LRU在内存管理上有着绝佳的应用。
下面我们结合具体例子来看看这几个页面置换策略的区别。
## 时间局限性与页面置换算法
刚才提到的时间局部性是一个比较抽象的描述为了更直观地讨论这些策略帮助你理解这个概念这里用一个序列表示操作系统依次访问的页面序列里的每个元素代表需要访问的页码。假设整个物理内存最多只能放3页当页数超过3并访问内存中不存在的数据就会触发缺页中断。
我们把页面的访问序列叫做“引用序列”之后的讨论都会建立在下面这个广为流传的引用序列例子上来展开s表示这个序列s\[i\]表示第i次访问的页码
```plain
7 0 1 2 0 3 0 4 2 3 0 3 2 1 2 0 1 7 0 1
```
![图片](https://static001.geekbang.org/resource/image/2b/f6/2b91dbdc83047b5a587b496b573e6af6.jpg?wh=1920x1145)
### 随机页面置换算法
既然发生缺页中断时,我们需要确定一个主存中需要被替换的页,那么一种很自然而然的想法就是通过软硬件的随机发生器选择一个页面替换。
也就是第一种策略,随机页面置换算法。
这种思想非常简单也易于实现,但是很显然,这种算法并不令人很满意。因为它没有用到任何历史访问记录的信息,而历史信息是很有用的,也是我们唯一能用于优化命中率的依据。
另外,这个算法导致同一个引用序列的产生的缺页中断次数是不稳定的,这会导致系统的性能不稳定,所以我们也不太会在实际系统中见到这样的策略。
### 最优页面置换算法
现在来看第二种策略,最优页面置换算法。这能让我们更好地理解为什么需要使用历史访问信息来帮助优化命中率。
从这个名字也能看出来,这个算法是一种最优的解法,但只是理论上存在的“上帝”算法,因为它的工作方式是,**在替换页面的时候,永远优先替换内存中最久不被访问的那个页面,尽可能晚地触发缺页中断**。
第一行就是引用序列,从高到低顺次排列的三个方块就代表三个缓存页,其中绿色的块代表新替换上的页面。
![图片](https://static001.geekbang.org/resource/image/d4/de/d405722c73512e781ffdecb94df163de.jpg?wh=1920x1145)
在例子中我们访问s\[10\] = 0时就可以把内存中的4替换掉因为4在之后的访问中没有出现过。按照类似的策略观察后续少出现的页码尽量少触发缺页中断。所以一共只需要触发9次缺页中断。
很明显,**这并不是一个真的能被实现的算法,因为当运行程序时,并没有很好的办法去预测之后访问的页码是哪些**,唯一能做的就是尽量从历史的访问记录里推测出,哪些页码可能会很长一段时间不被访问。
总的来说,这个仅存在于理论上的算法主要的意义就是可以为我们衡量其他算法的好坏做一个参考。
### FIFO算法
既然要利用历史记录你是不是很自然想到放得久的数据先置换出去也就是First In, First out。这也就是我们要介绍的第三种策略FIFO先进先出算法。
先进先出,这个词相信你一点也不陌生,我们在[第3讲](https://time.geekbang.org/column/article/468507)介绍队列数据结构的时候也有提到,队列的基本特征就是先进先出。
在页面置换中,先进先出的策略是这样工作的:**在每次缺页中断时,替换当前物理内存中最早被加入缓存的页**。实现也很简单,可以通过一个循环链表来存储所有页。
这看似比较符合直觉,但在操作系统的实际应用中表现很差。我们结合刚才引用序列的例子来看,可以画出这样的示意图:
![图片](https://static001.geekbang.org/resource/image/4a/fb/4aef317eef0858fe46014acc029c18fb.jpg?wh=1920x1145)
可以看到我们进行了15次缺页中断和最优解相比多了很多次置换。比如在序列是s\[4…6\] = 0 3 0的时候这里的0因为出现的比较早在s\[5\]时被替换成3后又遇到马上要读取0的情况又要做一次缺页中断的操作。
所以对于符合直觉的FIFO算法先加入的页面可能会被多次访问如果经常让更早被加入但访问频繁的页面被淘汰显然不是一个很好的策略。这意味着我们**不但要用历史数据,还要更好地设计利用的方式,让策略更接近于最优算法**。
## LRU算法
今天的主角LRU最近最少使用算法就是这样一种直观简单、实际检验效果也非常好的页面置换策略。
通过刚才的几个例子,结合你实际使用体验,会发现在操作系统的场景下,**引用序列有明显的局部相关性,每个出现的页码有比较高的概率会在相邻的一段时间里反复出现**。
上一个FIFO算法的一大失误就在于没有考虑局部性当一个页码多次出现时FIFO并没有将这个信息记录并反映到淘汰页面的选择策略里所以可能就会淘汰了一个近期出现过但是之后又很快就会再次出现的页码。
既然我们不能预测未来,简单替换最早的页码也不好用,那么一种很自然的想法就是,**如果某个页码在过去访问过,就尽量晚点去淘汰它**。我们可以选择内存中最近最少使用的页码进行替换这也正是LRU的策略。
![图片](https://static001.geekbang.org/resource/image/cc/51/ccb8c05efd5b89d7ccbbfab8e8874451.jpg?wh=1920x1145)
比如在获取数据3时我们在LRU中替换的是最久没有被访问的1而在FIFO中我们替换了0。但是0刚访问过理论上来说之后访问的概率也会更高不过在FIFO策略下因为0是最早进入的被替换了就导致了后面访问0时产生了一次缺页中断。
相比于FIFO同样的例子我们只进行了12次缺页中断。采用LRU算法大多数时候会比FIFO和随机策略有更好的性能。
### 实现思路
既然有了基本的想法,我们就要想办法高效地实现它了。
Linux源码比较艰深且涉及的背景知识比较多这里我们选择自己动手实现简单LRU的方式来进行源码级讲解。
对于从指定页获取数据的操作可以用一个HashMap来模拟可以用key代表页面号用value代表页面中具体的数据。
**所以问题可以更通用地抽象为设计一个数据结构提供get和put两个接口**。get的时候输入一个key我们可以快速地访问key所对应的valueput的时候设置某个key对应的value。**同时这个数据结构初始化时需要设定一个capaticy**当数据结构中的key数量超过capacity时按照淘汰最近最少使用元素的策略进行替换使得数据结构中最多只有 capacity 个 key-value 对。
之所以说是一种更通用的抽象就是因为这不止适用于页面置换场景也适用于许多其他缓存场景比如在Redis中你就可以看到[类似的数据结构](https://github.com/redis/redis-doc/blob/master/topics/lru-cache.md)。
对应在页面置换场景下每次缺页中断就相当于对该数据结构进行了key为指定页码的put操作而capacity自然就是物理内存能存放的最多页数啦。
为了高效地实现内存置换算法,我们大致有两个需求:
1. 找到一种数据结构,使得我们可以随时快速地找到最近最少访问的页码。
2. 在每次缺页中断替换页面的时候,维护这个数据结构不会带来太多额外的成本。
幸运的是LRU的get和put的操作都是可以在O(1)的时间复杂度内实现的。下面我们就来看看用什么数据结构可以满足这样的需求。
### 数据结构选择
先说get的部分想在O(1)时间内根据key获取value很自然就会想到之前提到的哈希表。**通过维护哈希表就可以在O(1)时间内判断某个key是否存在LRU中或者访问到该key对应的value**。
但我们还要保证最近最少使用的替换策略,要想办法记录下内存中数据访问的先后关系,才可以保证最近访问过的,要比更早之前访问过的后淘汰。一种很自然的想法就是维护一个基于最近访问时间的有序列表。
这当然有很多种实现方式。比如我们可以维护一个数组从前到后依次存放最近访问过到最久没有访问过的key。可是这样每次get的时候我们就需要把数组中某个位置的key移动到数组的开始位置并把后续的元素全部顺移一位。根据我们之前学到的知识这样整体移动数组的操作的复杂度是O(N)。
那么应该怎么做呢?
相信好好学习前面专栏的同学已经想到了,**双链表就可以实现在O(1)内,删除节点并移动到指定位置的操作**。我们可以构建一个双链表,让链表元素按照访问时间顺序从前到后依次排列。
通过双链表+哈希表就可以完美实现LRU基于最近访问时间排序的有序列表这两种数据结构的组合非常常见也有人称之为LinkedHashMap。
### 代码实现
下面我们来看具体的代码这次选择语法简明、性能优秀的Golang作为实现语言。
首先是基础的数据结构的定义。我们声明一个LRU的结构体它包括以下三个成员标量
1. size 是LRU的容量。
2. innerList 是一个Golang内置的双链表来表示基于最近访问时间排序的序列。
3. innerMap 是一个hashmapGolang同样提供了内置实现我们主要用它来存储key-value对。
再定义一个 entry表示在innerList中链表节点的数据结构它同时记录了key和value的信息。
```go
type LRU struct {
size int
innerList *list.List
innerMap map[int]*list.Element
}
type entry struct {
key int
value int
}
```
然后实现get我们可以从map中基于key获取元素的信息如果不存在就直接返回不存在。
因为要保证LRU的链表始终按照最近访问时间排序get之后我们当然需要把当前key对应的链表节点移动到链表的最开始所以在hashmap中可以选择直接记录链表中的节点元素。借助于Golang内置的双链表只需要调用MoveToFront就可以简短地实现这一逻辑。
```go
func (c *LRU) Get(key int) (int, bool) {
if e, ok := c.innerMap[key]; ok {
c.innerList.MoveToFront(e)
return e.Value.(*entry).value, true
}
return -1, false
}
```
最后来看一下put操作。相比于get操作代码逻辑会稍显复杂一些同样代码会有两个支路。
```go
func (c *LRU) Put(key int, value int) (evicted bool) {
if e, ok := c.innerMap[key]; ok {
c.innerList.MoveToFront(e)
e.Value.(*entry).value = value
return false
} else {
e := &entry{key, value}
ent := c.innerList.PushFront(e)
c.innerMap[key] = ent
if c.innerList.Len() > c.size {
last := c.innerList.Back()
c.innerList.Remove(last)
delete(c.innerMap, last.Value.(*entry).key)
return true
}
return false
}
}
```
我顺着代码简单说明一下逻辑。如果put的元素在LRU中已经存在首先根据innerMap找到链表中的节点移动到最前并修改其中的value值就可以了。同样这种情况在页面置换的场景下并不会出现。
**而如果LRU中不存在指定key对应的记录我们就需要在链表开头插入该节点并在容量不足的时候淘汰一个最近最少使用的节点**。这段逻辑其实也非常简单,由于链表已经是基于访问时间从近到远有序排列的了,我们直接删除链表尾部元素就行。
当然也需要同步在innerMap中删除对应的记录否则就会有类似于内存泄漏的问题innerMap中的内存占用就会越来越多且永远没有机会释放。而我们需要做的也仅仅是在删除链表末尾节点前记录下该节点对应的key的值并调用Golang内置的delete方法。
到这里我们就实现了最近最少访问算法所需的数据结构,它广泛运用于在实际系统里,我自己在网络组件的开发中就用到了类似的数据结构,去主动关闭超过一定数量的闲置链接,节约了大量的系统资源。
## 总结
通过分页和虚拟内存的抽象,操作系统解放了用户对内存管理和容量的心智负担。当缓存的数据越来越多,如何选择一个合适的页面或缓存内容来替换,就是缓存置换算法的用武之地。
页面置换策略有多种包括随机置换、FIFO、LRU等非常重要且常见的LRU通过利用引用列表的局部相关性提高了页面的命中率。 LRU的实现也并不是非常复杂但需要对链表和哈希表有很好的理解才行所以我们一定要认真打好数据结构和算法的基础。
LRU不但是面试的常见考点实际开发也相当常用。我在工作中就有手写过类似的数据结构用于清理最久没有数据包上下行的非活跃链接。建议你用自己熟悉的语言实现一遍在实现的时候要记得多考虑一些并发场景下可能会产生的问题。
## 课后作业
留一个小小的问题给你为什么在LRU的数据结构中我们选择了双链表而不是单链表呢欢迎你在留言区与我讨论。