You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

186 lines
13 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 09 | Page Cache为什么我的容器内存使用量总是在临界点?
你好,我是程远。
上一讲我们讲了Memory Cgroup是如何控制一个容器的内存的。我们已经知道了如果容器使用的物理内存超过了Memory Cgroup里的memory.limit\_in\_bytes值那么容器中的进程会被OOM Killer杀死。
不过在一些容器的使用场景中比如容器里的应用有很多文件读写你会发现整个容器的内存使用量已经很接近Memory Cgroup的上限值了但是在容器中我们接着再申请内存还是可以申请出来并且没有发生OOM。
这是怎么回事呢?今天这一讲我就来聊聊这个问题。
## 问题再现
我们可以用这里的[代码](https://github.com/chengyli/training/tree/main/memory/page_cache)做个容器镜像然后用下面的这个脚本启动容器并且设置容器Memory Cgroup里的内存上限值是100MB104857600bytes
```shell
#!/bin/bash
docker stop page_cache;docker rm page_cache
if [ ! -f ./test.file ]
then
dd if=/dev/zero of=./test.file bs=4096 count=30000
echo "Please run start_container.sh again "
exit 0
fi
echo 3 > /proc/sys/vm/drop_caches
sleep 10
docker run -d --init --name page_cache -v $(pwd):/mnt registry/page_cache_test:v1
CONTAINER_ID=$(sudo docker ps --format "{{.ID}}\t{{.Names}}" | grep -i page_cache | awk '{print $1}')
echo $CONTAINER_ID
CGROUP_CONTAINER_PATH=$(find /sys/fs/cgroup/memory/ -name "*$CONTAINER_ID*")
echo 104857600 > $CGROUP_CONTAINER_PATH/memory.limit_in_bytes
cat $CGROUP_CONTAINER_PATH/memory.limit_in_bytes
```
把容器启动起来后我们查看一下容器的Memory Cgroup下的memory.limit\_in\_bytes和memory.usage\_in\_bytes这两个值。
如下图所示我们可以看到容器内存的上限值设置为104857600bytes100MB而这时整个容器的已使用内存显示为104767488bytes这个值已经非常接近上限值了。
我们把容器内存上限值和已使用的内存数值做个减法104857600104767488= 90112bytes只差大概90KB左右的大小。
![](https://static001.geekbang.org/resource/image/11/2c/1192c3b6430dc1de84199e9da153502c.png)
但是如果这时候我们继续启动一个程序让这个程序申请并使用50MB的物理内存就会发现这个程序还是可以运行成功这时候容器并没有发生OOM的情况。
这时我们再去查看参数memory.usage\_in\_bytes就会发现它的值变成了103186432bytes比之前还少了一些。那这是怎么回事呢
![](https://static001.geekbang.org/resource/image/79/7b/79ed17b066762a5385bf70758d4de87b.png)
## 知识详解Linux系统有那些内存类型
要解释刚才我们看到的容器里内存分配的现象就需要先理解Linux操作系统里有哪几种内存的类型。
因为我们只有知道了内存的类型,才能明白每一种类型的内存,容器分别使用了多少。而且,对于不同类型的内存,一旦总内存增高到容器里内存最高限制的数值,相应的处理方式也不同。
## Linux内存类型
Linux的各个模块都需要内存比如内核需要分配内存给页表内核栈还有slab也就是内核各种数据结构的Cache Pool用户态进程里的堆内存和栈的内存共享库的内存还有文件读写的Page Cache。
在这一讲里我们讨论的Memory Cgroup里都不会对内核的内存做限制比如页表slab等。所以我们今天主要讨论**与用户态相关的两个内存类型RSS和Page Cache。**
### RSS
先看什么是RSS。RSS是Resident Set Size的缩写简单来说它就是指进程真正申请到物理页面的内存大小。这是什么意思呢
应用程序在申请内存的时候比如说调用malloc()来申请100MB的内存大小malloc()返回成功了这时候系统其实只是把100MB的虚拟地址空间分配给了进程但是并没有把实际的物理内存页面分配给进程。
上一讲中我给你讲过当进程对这块内存地址开始做真正读写操作的时候系统才会把实际需要的物理内存分配给进程。而这个过程中进程真正得到的物理内存就是这个RSS了。
比如下面的这段代码我们先用malloc申请100MB的内存。
```
p = malloc(100 * MB);
if (p == NULL)
return 0;
```
然后我们运行top命令查看这个程序在运行了malloc()之后的内存我们可以看到这个程序的虚拟地址空间VIRT已经有了106728KB100MB)但是实际的物理内存RSStop命令里显示的是RES就是Resident的简写和RSS是一个意思在这里只有688KB。
![](https://static001.geekbang.org/resource/image/fc/09/fce68702702bd94539357134ba32ab09.png)
接着我们在程序里等待30秒之后我们再对这块申请的空间里写入20MB的数据。
```
sleep(30);
memset(p, 0x00, 20 * MB)
```
当我们用memset()函数对这块地址空间写入20MB的数据之后我们再用top查看这时候可以看到虚拟地址空间VIRT还是106728不过物理内存RSSRES的值变成了21432大小约为20MB 这里的单位都是KB。
![](https://static001.geekbang.org/resource/image/8c/ed/8ca5fda34f50166cbc48f6aab93479ed.png)
所以通过刚才上面的小实验我们可以验证RSS就是进程里真正获得的物理内存大小。
对于进程来说RSS内存包含了进程的代码段内存栈内存堆内存共享库的内存, 这些内存是进程运行所必须的。刚才我们通过malloc/memset得到的内存就是属于堆内存。
具体的每一部分的RSS内存的大小你可以查看/proc/\[pid\]/smaps文件。
### Page Cache
每个进程除了各自独立分配到的RSS内存外如果进程对磁盘上的文件做了读写操作Linux还会分配内存把磁盘上读写到的页面存放在内存中这部分的内存就是Page Cache。
Page Cache的主要作用是提高磁盘文件的读写性能因为系统调用read()和write()的缺省行为都会把读过或者写过的页面存放在Page Cache里。
还是用我们这一讲最开始的的例子代码程序去读取100MB的文件在读取文件前系统中Page Cache的大小是388MB读取后Page Cache的大小是506MB增长了大约100MB左右多出来的这100MB正是我们读取文件的大小。
![](https://static001.geekbang.org/resource/image/19/df/19e5319f0ac8821986efb005de8235df.png)
在Linux系统里只要有空闲的内存系统就会自动地把读写过的磁盘文件页面放入到Page Cache里。那么这些内存都被Page Cache占用了一旦进程需要用到更多的物理内存执行malloc()调用做申请时,就会发现剩余的物理内存不够了,那该怎么办呢?
这就要提到Linux的内存管理机制了。 **Linux的内存管理有一种内存页面回收机制page frame reclaim会根据系统里空闲物理内存是否低于某个阈值wartermark来决定是否启动内存的回收。**
内存回收的算法会根据不同类型的内存以及内存的最近最少用原则就是LRULeast Recently Used算法决定哪些内存页面先被释放。因为Page Cache的内存页面只是起到Cache作用自然是会被优先释放的。
所以Page Cache是一种为了提高磁盘文件读写性能而利用空闲物理内存的机制。同时内存管理中的页面回收机制又能保证Cache所占用的页面可以及时释放这样一来就不会影响程序对内存的真正需求了。
### RSS & Page Cache in Memory Cgroup
学习了RSS和Page Cache的基本概念之后我们下面来看不同类型的内存特别是RSS和Page Cache是如何影响Memory Cgroup的工作的。
我们先从Linux的内核代码看一下从mem\_cgroup\_charge\_statistics()这个函数里我们可以看到Memory Cgroup也的确只是统计了RSS和Page Cache这两部分的内存。
RSS的内存就是在当前Memory Cgroup控制组里所有进程的RSS的总和而Page Cache这部分内存是控制组里的进程读写磁盘文件后被放入到Page Cache里的物理内存。
![](https://static001.geekbang.org/resource/image/a5/3e/a55c7d3e74e17yy613d83e220f93223e.png)
Memory Cgroup控制组里RSS内存和Page Cache内存的和正好是memory.usage\_in\_bytes的值。
当控制组里的进程需要申请新的物理内存而且memory.usage\_in\_bytes里的值超过控制组里的内存上限值memory.limit\_in\_bytes这时我们前面说的Linux的内存回收page frame reclaim就会被调用起来。
那么在这个控制组里的page cache的内存会根据新申请的内存大小释放一部分这样我们还是能成功申请到新的物理内存整个控制组里总的物理内存开销memory.usage\_in\_bytes 还是不会超过上限值memory.limit\_in\_bytes。
## 解决问题
明白了Memory Cgroup中内存类型的统计方法我们再回过头看这一讲开头的问题为什么memory.usage\_in\_bytes与memory.limit\_in\_bytes的值只相差了90KB我们在容器中还是可以申请出50MB的物理内存
我想你应该已经知道答案了容器里肯定有大于50MB的内存是Page Cache因为作为Page Cache的内存在系统需要新申请物理内存的时候作为RSS是可以被释放的。
知道了这个答案那么我们怎么来验证呢验证的方法也挺简单的在Memory Cgroup中有一个参数memory.stat可以显示在当前控制组里各种内存类型的实际的开销。
那我们还是拿这一讲的容器例子再跑一遍代码这次要查看一下memory.stat里的数据。
第一步,我们还是用同样的[脚本](https://github.com/chengyli/training/blob/main/memory/page_cache/start_container.sh)来启动容器并且设置好容器的Memory Cgroup里的memory.limit\_in\_bytes值为100MB。
启动容器后这次我们不仅要看memory.usage\_in\_bytes的值还要看一下memory.stat。虽然memory.stat里的参数有不少但我们目前只需要关注"cache"和"rss"这两个值。
我们可以看到容器启动后cache也就是Page Cache占的内存是99508224bytes大概是99MB而RSS占的内存只有1826816bytes也就是1MB多一点。
这就意味着在这个容器的Memory Cgroup里大部分的内存都被用作了Page Cache而这部分内存是可以被回收的。
![](https://static001.geekbang.org/resource/image/b5/fe/b5c30dec6f760fbafd81de264b323dfe.png)
那么我们再执行一下我们的[mem\_alloc程序](https://github.com/chengyli/training/blob/main/memory/page_cache/mem-alloc/mem_alloc.c)申请50MB的物理内存。
我们可以再来查看一下memory.stat这时候cache的内存值降到了46632960bytes大概46MB而rss的内存值到了54759424bytes54MB左右吧。总的memory.usage\_in\_bytes值和之前相比没有太多的变化。
![](https://static001.geekbang.org/resource/image/c6/8a/c6835495bd44817cb5c60069d491c38a.png)
从这里我们发现Page Cache内存对我们判断容器实际内存使用率的影响目前Page Cache完全就是Linux内核的一个自动的行为只要读写磁盘文件只要有空闲的内存就会被用作Page Cache。
所以判断容器真实的内存使用量我们不能用Memory Cgroup里的memory.usage\_in\_bytes而需要用memory.stat里的rss值。这个很像我们用free命令查看节点的可用内存不能看"free"字段下的值而要看除去Page Cache之后的"available"字段下的值。
## 重点总结
这一讲我想让你知道每个容器的Memory Cgroup在统计每个控制组的内存使用时包含了两部分RSS和Page Cache。
RSS是每个进程实际占用的物理内存它包括了进程的代码段内存进程运行时需要的堆和栈的内存这部分内存是进程运行所必须的。
Page Cache是进程在运行中读写磁盘文件后作为Cache而继续保留在内存中的它的目的是**为了提高磁盘文件的读写性能。**
当节点的内存紧张或者Memory Cgroup控制组的内存达到上限的时候Linux会对内存做回收操作这个时候Page Cache的内存页面会被释放这样空出来的内存就可以分配给新的内存申请。
正是Page Cache内存的这种Cache的特性对于那些有频繁磁盘访问容器我们往往会看到它的内存使用率一直接近容器内存的限制值memory.limit\_in\_bytes。但是这时候我们并不需要担心它内存的不够 我们在判断一个容器的内存使用状况的时候可以把Page Cache这部分内存使用量忽略而更多的考虑容器中RSS的内存使用量。
## 思考题
在容器里启动一个写磁盘文件的程序写入100MB的数据查看写入前和写入后容器对应的Memory Cgroup里memory.usage\_in\_bytes的值以及memory.stat里的rss/cache值。
欢迎在留言区写下你的思考或疑问,我们一起交流探讨。如果这篇文章让你有所收获,也欢迎你分享给更多的朋友,一起学习进步。