You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

814 lines
34 KiB
Markdown

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 22 | 瞧一瞧Linux伙伴系统如何分配内存
你好我是LMOS。
前面我们实现了Cosmos的内存管理组件相信你对计算机内存管理已经有了相当深刻的认识和见解。那么像Linux这样的成熟操作系统又是怎样实现内存管理的呢
这就要说到Linux系统中用来管理物理内存页面的**伙伴系统**,以及负责分配比页更小的内存对象的**SLAB分配器**了。
我会通过两节课给你理清这两种内存管理技术这节课我们先来说说伙伴系统下节课再讲SLAB。只要你紧跟我的思路再加上前面的学习真正理解这两种技术也并不难。
## 伙伴系统
伙伴系统源于Sun公司的Solaris操作系统是Solaris操作系统上极为优秀的物理内存页面管理算法。
但是好东西总是容易被别人窃取或者效仿伙伴系统也成了Linux的物理内存管理算法。由于Linux的开放和非赢利这自然无可厚非这不得不让我们想起了鲁迅《孔乙己》中的“窃书不算偷”。
那Linux上伙伴系统算法是怎样实现的呢我们不妨从一些重要的数据结构开始入手。
### 怎样表示一个页
Linux也是使用分页机制管理物理内存的即Linux把物理内存分成4KB大小的页面进行管理。那Linux用了一个什么样的数据结构表示一个页呢
早期Linux使用了位图后来使用了字节数组但是现在Linux定义了一个page结构体来表示一个页代码如下所示。
```
struct page {
//page结构体的标志它决定页面是什么状态
unsigned long flags;
union {
struct {
//挂载上级结构的链表
struct list_head lru;
//用于文件系统address_space结构描述上文件占用了哪些内存页面
struct address_space *mapping;
pgoff_t index;
unsigned long private;
};
//DMA设备的地址
struct {
dma_addr_t dma_addr;
};
//当页面用于内存对象时指向相关的数据结构
struct {
union {
struct list_head slab_list;
struct {
struct page *next;
#ifdef CONFIG_64BIT
int pages;
int pobjects;
#else
short int pages;
short int pobjects;
#endif
};
};
//指向管理SLAB的结构kmem_cache
struct kmem_cache *slab_cache;
//指向SLAB的第一个对象
void *freelist;
union {
void *s_mem;
unsigned long counters;
struct {
unsigned inuse:16;
unsigned objects:15;
unsigned frozen:1;
};
};
};
//用于页表映射相关的字段
struct {
unsigned long _pt_pad_1;
pgtable_t pmd_huge_pte;
unsigned long _pt_pad_2;
union {
struct mm_struct *pt_mm;
atomic_t pt_frag_refcount;
};
//自旋锁
#if ALLOC_SPLIT_PTLOCKS
spinlock_t *ptl;
#else
spinlock_t ptl;
#endif
};
//用于设备映射
struct {
struct dev_pagemap *pgmap;
void *zone_device_data;
};
struct rcu_head rcu_head;
};
//页面引用计数
atomic_t _refcount;
#ifdef LAST_CPUPID_NOT_IN_PAGE_FLAGS
int _last_cpupid;
#endif
} _struct_page_alignment;
```
这个page结构看上去非常巨大信息量很多但其实它占用的内存很少根据Linux内核配置选项不同占用2040个字节空间。page结构大量使用了C语言union联合体定义结构字段这个联合体的大小要根据它里面占用内存最大的变量来决定。
不难猜出使用过程中page结构正是**通过flags**表示它处于哪种状态根据不同的状态来使用union联合体的变量表示的数据信息。如果page处于空闲状态它就会使用union联合体中的lru字段挂载到对应空闲链表中。
一“页”障目不见泰山这里我们不需要了解page结构的所有细节我们只需要知道**Linux内核中一个page结构表示一个物理内存页面就行了。**
### 怎样表示一个区
Linux内核中也有区的逻辑概念因为硬件的限制Linux内核不能对所有的物理内存页统一对待所以就把属性相同物理内存页面归结到了一个区中。
不同硬件平台区的划分也不一样。比如在32位的x86平台中一些使用DMA的设备只能访问0~16MB的物理空间因此将0~16MB划分为DMA区。
高内存区则适用于要访问的物理地址空间大于虚拟地址空间Linux内核不能建立直接映射的情况。除开这两个内存区物理内存中剩余的页面就划分到常规内存区了。有的平台没有DMA区64位的x86平台则没有高内存区。
在Linux里可以查看自己机器上的内存区指令如下图所示。
![](https://static001.geekbang.org/resource/image/ce/2b/ce58ed9419a405f5b403ff031bb5992b.jpg?wh=1077x620 "PS在我的系统上还有防止内存碎片化的MOVABLE区和支持设备热插拔的DEVICE区")
Linux内核用zone数据结构表示一个区代码如下所示。
```
enum migratetype {
MIGRATE_UNMOVABLE, //不能移动的
MIGRATE_MOVABLE, //可移动和
MIGRATE_RECLAIMABLE,
MIGRATE_PCPTYPES, //属于pcp list的
MIGRATE_HIGHATOMIC = MIGRATE_PCPTYPES,
#ifdef CONFIG_CMA
MIGRATE_CMA, //属于CMA区的
#endif
#ifdef CONFIG_MEMORY_ISOLATION
MIGRATE_ISOLATE,
#endif
MIGRATE_TYPES
};
//页面空闲链表头
struct free_area {
struct list_head free_list[MIGRATE_TYPES];
unsigned long nr_free;
};
struct zone {
unsigned long _watermark[NR_WMARK];
unsigned long watermark_boost;
//预留的内存页面数
unsigned long nr_reserved_highatomic;
//内存区属于哪个内存节点
#ifdef CONFIG_NUMA
int node;
#endif
struct pglist_data *zone_pgdat;
//内存区开始的page结构数组的开始下标
unsigned long zone_start_pfn;
atomic_long_t managed_pages;
//内存区总的页面数
unsigned long spanned_pages;
//内存区存在的页面数
unsigned long present_pages;
//内存区名字
const char *name;
//挂载页面page结构的链表
struct free_area free_area[MAX_ORDER];
//内存区的标志
unsigned long flags;
/*保护free_area的自旋锁*/
spinlock_t lock;
};
```
为了节约你的时间,我只列出了需要我们关注的字段。其中\_watermark表示内存页面总量的水位线有min, low, high三种状态可以作为启动内存页面回收的判断标准。spanned\_pages是该内存区总的页面数。
为什么要有个present\_pages字段表示页面真正存在呢那是因为一些内存区中存在内存空洞空洞对应的page结构不能用。你可以做个对比我们的Cosmos不会对内存空洞建立msadsc\_t避免浪费内存。
在zone结构中我们真正要关注的是**free\_area结构的数组**这个数组就是用于实现伙伴系统的。其中MAX\_ORDER的值默认为11分别表示挂载地址连续的page结构数目为12481632……最大为1024。
而free\_area结构中又是一个list\_head链表数组该数组将具有相同迁移类型的page结构尽可能地分组有的页面可以迁移有的不可以迁移同一类型的所有相同order的page结构就构成了一组page结构块。
分配的时候会先按请求的migratetype从对应的page结构块中寻找如果不成功才会从其他migratetype的page结构块中分配。这样做是为了**让内存页迁移更加高效,可以有效降低内存碎片。**
zone结构中还有一个指针指向pglist\_data结构这个结构也很重要下面我们一起去研究它。
### 怎样表示一个内存节点
在了解Linux内存节点数据结构之前我们先要了解**NUMA**。
在很多服务器和大型计算机上如果物理内存是分布式的由多个计算节点组成那么每个CPU核都会有自己的本地内存CPU在访问它的本地内存的时候就比较快访问其他CPU核内存的时候就比较慢这种体系结构被称为Non-Uniform Memory AccessNUMA
逻辑如下图所示。
![](https://static001.geekbang.org/resource/image/23/e6/23d2b5c0918cce7664e158e8bf925be6.jpg?wh=3305x2253 "NUMA架构")
Linux对NUMA进行了抽象它可以将一整块连续物理内存的划分成几个内存节点也可以把不是连续的物理内存当成真正的NUMA。
那么Linux使用什么数据结构表示一个内存节点呢请看代码如下所示。
```
enum {
ZONELIST_FALLBACK,
#ifdef CONFIG_NUMA
ZONELIST_NOFALLBACK,
#endif
MAX_ZONELISTS
};
struct zoneref {
struct zone *zone;//内存区指针
int zone_idx; //内存区对应的索引
};
struct zonelist {
struct zoneref _zonerefs[MAX_ZONES_PER_ZONELIST + 1];
};
//zone枚举类型 从0开始
enum zone_type {
#ifdef CONFIG_ZONE_DMA
ZONE_DMA,
#endif
#ifdef CONFIG_ZONE_DMA32
ZONE_DMA32,
#endif
ZONE_NORMAL,
#ifdef CONFIG_HIGHMEM
ZONE_HIGHMEM,
#endif
ZONE_MOVABLE,
#ifdef CONFIG_ZONE_DEVICE
ZONE_DEVICE,
#endif
__MAX_NR_ZONES
};
//定义MAX_NR_ZONES为__MAX_NR_ZONES 最大为6
DEFINE(MAX_NR_ZONES, __MAX_NR_ZONES);
//内存节点
typedef struct pglist_data {
//定一个内存区数组最大为6个zone元素
struct zone node_zones[MAX_NR_ZONES];
//两个zonelist一个是指向本节点的的内存区另一个指向由本节点分配不到内存时可选的备用内存区。
struct zonelist node_zonelists[MAX_ZONELISTS];
//本节点有多少个内存区
int nr_zones;
//本节点开始的page索引号
unsigned long node_start_pfn;
//本节点有多少个可用的页面
unsigned long node_present_pages;
//本节点有多少个可用的页面包含内存空洞
unsigned long node_spanned_pages;
//节点id
int node_id;
//交换内存页面相关的字段
wait_queue_head_t kswapd_wait;
wait_queue_head_t pfmemalloc_wait;
struct task_struct *kswapd;
//本节点保留的内存页面
unsigned long totalreserve_pages;
//自旋锁
spinlock_t lru_lock;
} pg_data_t;
```
可以发现pglist\_data结构中包含了zonelist数组。第一个zonelist类型的元素指向本节点内的zone数组第二个zonelist类型的元素指向其它节点的zone数组而一个zone结构中的free\_area数组中又挂载着page结构。
这样在本节点中分配不到内存页面的时候就会到其它节点中分配内存页面。当计算机不是NUMA时这时Linux就只创建一个节点。
### 数据结构之间的关系
现在我们已经了解了pglist\_data、zonelist、zone、page这些数据结构的核心内容。
有了这些必要的知识积累,我再带你从宏观上梳理一下这些结构的关系,只有搞清楚了它们之间的关系,你才能清楚伙伴系统的核心算法的实现。
根据前面的描述,我们来画张图就清晰了。
![](https://static001.geekbang.org/resource/image/04/d1/04d5fd0788012cd076ef13aa623b65d1.jpg?wh=2048x1895 "Linux内存数据结构关系")
我相信你看了这张图,再结合[上节课](https://time.geekbang.org/column/article/388167) Cosmos的物理内存管理器的内容Linux的伙伴系统算法你就已经心中有数了。下面我们去看看何为伙伴。
### 何为伙伴
我们一直在说伙伴系统,但是我们还不清楚何为伙伴?
在我们现实世界中伙伴就是好朋友而在Linux物理内存页面管理中连续且相同大小的pages就可以表示成伙伴。
比如第0个page和第1个page是伙伴但是和第2个page不是伙伴第2个page和第3个page是伙伴。同时第0个page和第1个page连续起来作为一个整体pages这和第2个page和第3个page连续起来作为一个整体pages它们又是伙伴依次类推。
我们还是来画幅图吧,如下所示。
![](https://static001.geekbang.org/resource/image/e9/11/e98a2e51e5410be1a98d8820c60d3211.jpg?wh=3490x1215 "伙伴系统示意图")
上图中首先最小的page0,1是伙伴page2,3是伙伴page4,5是伙伴page6,7是伙伴然后A与B是伙伴C与D是伙伴最后E与F是伙伴。有了图解你是不是瞬间明白伙伴系统的伙伴了呢
## 分配页面
下面我们开始研究Linux下怎样分配物理内存页面看过前面的数据结构和它们之间的关系分配物理内存页面的过程很好推理**首先要找到内存节点接着找到内存区然后合适的空闲链表最后在其中找到页的page结构完成物理内存页面的分配。**
### 通过接口找到内存节点
我们先来了解一下分配内存页面的接口,我用一幅图来表示接口以及它们调用关系。我相信图解是理解接口函数的最佳方式,如下所示。
![](https://static001.geekbang.org/resource/image/9a/18/9a33d0da55dfdd7dabdeb461af671418.jpg?wh=4020x4525 "分配内存页面接口")
上图中虚线框中为接口函数下面则是分配内存页面的核心实现所有的接口函数都会调用到alloc\_pages函数而这个函数最终会调用\_\_alloc\_pages\_nodemask函数完成内存页面的分配。
下面我们来看看alloc\_pages函数的形式代码如下。
```
struct page *alloc_pages_current(gfp_t gfp, unsigned order)
{
struct mempolicy *pol = &default_policy;
struct page *page;
if (!in_interrupt() && !(gfp & __GFP_THISNODE))
pol = get_task_policy(current);
if (pol->mode == MPOL_INTERLEAVE)
page = alloc_page_interleave(gfp, order, interleave_nodes(pol));
else
page = __alloc_pages_nodemask(gfp, order,
policy_node(gfp, pol, numa_node_id()),
policy_nodemask(gfp, pol));
return page;
}
static inline struct page * alloc_pages(gfp_t gfp_mask, unsigned int order)
{
return alloc_pages_current(gfp_mask, order);
}
```
我们这里不需要关注alloc\_pages\_current函数的其它细节**只要知道它最终要调用\_\_alloc\_pages\_nodemask函数**而且我们还要搞清楚它的参数order很好理解它表示请求分配2的order次方个页面**重点是gfp\_t类型的gfp\_mask**。
gfp\_mask的类型和取值如下所示。
```
typedef unsigned int __bitwise gfp_t;
#define ___GFP_DMA 0x01u
#define ___GFP_HIGHMEM 0x02u
#define ___GFP_DMA32 0x04u
#define ___GFP_MOVABLE 0x08u
#define ___GFP_RECLAIMABLE 0x10u
#define ___GFP_HIGH 0x20u
#define ___GFP_IO 0x40u
#define ___GFP_FS 0x80u
#define ___GFP_ZERO 0x100u
#define ___GFP_ATOMIC 0x200u
#define ___GFP_DIRECT_RECLAIM 0x400u
#define ___GFP_KSWAPD_RECLAIM 0x800u
#define ___GFP_WRITE 0x1000u
#define ___GFP_NOWARN 0x2000u
#define ___GFP_RETRY_MAYFAIL 0x4000u
#define ___GFP_NOFAIL 0x8000u
#define ___GFP_NORETRY 0x10000u
#define ___GFP_MEMALLOC 0x20000u
#define ___GFP_COMP 0x40000u
#define ___GFP_NOMEMALLOC 0x80000u
#define ___GFP_HARDWALL 0x100000u
#define ___GFP_THISNODE 0x200000u
#define ___GFP_ACCOUNT 0x400000u
//需要原子分配内存不得让请求者进入睡眠
#define GFP_ATOMIC (__GFP_HIGH|__GFP_ATOMIC|__GFP_KSWAPD_RECLAIM)
//分配用于内核自己使用的内存可以有IO和文件系统相关的操作
#define GFP_KERNEL (__GFP_RECLAIM | __GFP_IO | __GFP_FS)
#define GFP_KERNEL_ACCOUNT (GFP_KERNEL | __GFP_ACCOUNT)
//分配内存不能睡眠不能有I/O和文件系统相关的操作
#define GFP_NOWAIT (__GFP_KSWAPD_RECLAIM)
#define GFP_NOIO (__GFP_RECLAIM)
#define GFP_NOFS (__GFP_RECLAIM | __GFP_IO)
//分配用于用户进程的内存
#define GFP_USER (__GFP_RECLAIM | __GFP_IO | __GFP_FS | __GFP_HARDWALL)
//用于DMA设备的内存
#define GFP_DMA __GFP_DMA
#define GFP_DMA32 __GFP_DMA32
//把高端内存区的内存分配给用户进程
#define GFP_HIGHUSER (GFP_USER | __GFP_HIGHMEM)
#define GFP_HIGHUSER_MOVABLE (GFP_HIGHUSER | __GFP_MOVABLE)
#define GFP_TRANSHUGE_LIGHT ((GFP_HIGHUSER_MOVABLE | __GFP_COMP | \__GFP_NOMEMALLOC | __GFP_NOWARN) & ~__GFP_RECLAIM)
#define GFP_TRANSHUGE (GFP_TRANSHUGE_LIGHT | __GFP_DIRECT_RECLAIM)
```
不难发现gfp\_t 类型就是int类型用其中位的状态表示请求分配不同的内存区的内存页面以及分配内存页面的不同方式。
### 开始分配
前面我们已经搞清楚了,内存页面分配接口的参数。下面我们进入分配内存页面的主要函数,这个**\_\_alloc\_pages\_nodemask函数**主要干了三件事。
1.准备分配页面的参数;
2.进入快速分配路径;
3.若快速分配路径没有分配到页面,就进入慢速分配路径。
让我们来看看它的代码实现。
```
struct page *__alloc_pages_nodemask(gfp_t gfp_mask, unsigned int order, int preferred_nid, nodemask_t *nodemask)
{
struct page *page;
unsigned int alloc_flags = ALLOC_WMARK_LOW;
gfp_t alloc_mask;
struct alloc_context ac = { };
//分配页面的order大于等于最大的order直接返回NULL
if (unlikely(order >= MAX_ORDER)) {
WARN_ON_ONCE(!(gfp_mask & __GFP_NOWARN));
return NULL;
}
gfp_mask &= gfp_allowed_mask;
alloc_mask = gfp_mask;
//准备分配页面的参数放在ac变量中
if (!prepare_alloc_pages(gfp_mask, order, preferred_nid, nodemask, &ac, &alloc_mask, &alloc_flags))
return NULL;
alloc_flags |= alloc_flags_nofragment(ac.preferred_zoneref->zone, gfp_mask);
//进入快速分配路径
page = get_page_from_freelist(alloc_mask, order, alloc_flags, &ac);
if (likely(page))
goto out;
alloc_mask = current_gfp_context(gfp_mask);
ac.spread_dirty_pages = false;
ac.nodemask = nodemask;
//进入慢速分配路径
page = __alloc_pages_slowpath(alloc_mask, order, &ac);
out:
return page;
}
```
### 准备分配页面的参数
我想你在\_\_alloc\_pages\_nodemask函数中一定看到了**一个变量ac是alloc\_context类型的**顾名思义分配参数就保存在了ac这个分配上下文的变量中。
prepare\_alloc\_pages函数根据传递进来的参数还会对ac变量做进一步处理代码如下。
```
struct alloc_context {
struct zonelist *zonelist;
nodemask_t *nodemask;
struct zoneref *preferred_zoneref;
int migratetype;
enum zone_type highest_zoneidx;
bool spread_dirty_pages;
};
static inline bool prepare_alloc_pages(gfp_t gfp_mask, unsigned int order,
int preferred_nid, nodemask_t *nodemask,
struct alloc_context *ac, gfp_t *alloc_mask,
unsigned int *alloc_flags)
{
//从哪个内存区分配内存
ac->highest_zoneidx = gfp_zone(gfp_mask);
//根据节点id计算出zone的指针
ac->zonelist = node_zonelist(preferred_nid, gfp_mask);
ac->nodemask = nodemask;
//计算出free_area中的migratetype值比如如分配的掩码为GFP_KERNEL那么其类型为MIGRATE_UNMOVABLE
ac->migratetype = gfp_migratetype(gfp_mask);
//处理CMA相关的分配选项
*alloc_flags = current_alloc_flags(gfp_mask, *alloc_flags);
ac->spread_dirty_pages = (gfp_mask & __GFP_WRITE);
//搜索nodemask表示的节点中可用的zone保存在preferred_zoneref
ac->preferred_zoneref = first_zones_zonelist(ac->zonelist,
ac->highest_zoneidx, ac->nodemask);
return true;
}
```
可以看到prepare\_alloc\_pages函数根据传递进入的参数就能找出要分配内存区、候选内存区以及内存区中空闲链表的migratetype类型。它把这些全部收集到ac结构中只要它返回true就说明分配内存页面的参数已经准备好了。
### Plan A快速分配路径
为了优化内存页面的分配性能,在一定情况下可以进入快速分配路径,请注意**快速分配路径不会处理内存页面合并和回收。**我们一起来看看代码,如下所示。
```
static struct page *
get_page_from_freelist(gfp_t gfp_mask, unsigned int order, int alloc_flags,
const struct alloc_context *ac)
{
struct zoneref *z;
struct zone *zone;
struct pglist_data *last_pgdat_dirty_limit = NULL;
bool no_fallback;
retry:
no_fallback = alloc_flags & ALLOC_NOFRAGMENT;
z = ac->preferred_zoneref;
//遍历ac->preferred_zoneref中每个内存区
for_next_zone_zonelist_nodemask(zone, z, ac->highest_zoneidx,
ac->nodemask) {
struct page *page;
unsigned long mark;
//查看内存水位线
mark = wmark_pages(zone, alloc_flags & ALLOC_WMARK_MASK);
//检查内存区中空闲内存是否在水印之上
if (!zone_watermark_fast(zone, order, mark,
ac->highest_zoneidx, alloc_flags,
gfp_mask)) {
int ret;
//当前内存区的内存结点需要做内存回收吗
ret = node_reclaim(zone->zone_pgdat, gfp_mask, order);
switch (ret) {
//快速分配路径不处理页面回收的问题
case NODE_RECLAIM_NOSCAN:
continue;
case NODE_RECLAIM_FULL:
continue;
default:
//根据分配的order数量判断内存区的水位线是否满足要求
if (zone_watermark_ok(zone, order, mark,
ac->highest_zoneidx, alloc_flags))
//如果可以可就从这个内存区开始分配
goto try_this_zone;
continue;
}
}
try_this_zone:
//真正分配内存页面
page = rmqueue(ac->preferred_zoneref->zone, zone, order,
gfp_mask, alloc_flags, ac->migratetype);
if (page) {
//清除一些标志或者设置联合页等等
prep_new_page(page, order, gfp_mask, alloc_flags);
return page;
}
}
if (no_fallback) {
alloc_flags &= ~ALLOC_NOFRAGMENT;
goto retry;
}
return NULL;
}
```
上述这段代码中,我删除了一部分非核心代码,如果你有兴趣深入了解请看[这里](https://elixir.bootlin.com/linux/v5.10.23/source/mm/page_alloc.c#L3792)。这个函数的逻辑就是**遍历所有的候选内存区然后针对每个内存区检查水位线是不是执行内存回收机制当一切检查通过之后就开始调用rmqueue函数执行内存页面分配。**
### Plan B慢速分配路径
当快速分配路径没有分配到页面的时候,就会进入慢速分配路径。跟快速路径相比,慢速路径最主要的不同是它会**执行页面回收**,回收页面之后会进行多次重复分配,直到最后分配到内存页面,或者分配失败,具体代码如下。
```
static inline struct page *
__alloc_pages_slowpath(gfp_t gfp_mask, unsigned int order,
struct alloc_context *ac)
{
bool can_direct_reclaim = gfp_mask & __GFP_DIRECT_RECLAIM;
const bool costly_order = order > PAGE_ALLOC_COSTLY_ORDER;
struct page *page = NULL;
unsigned int alloc_flags;
unsigned long did_some_progress;
enum compact_priority compact_priority;
enum compact_result compact_result;
int compaction_retries;
int no_progress_loops;
unsigned int cpuset_mems_cookie;
int reserve_flags;
retry:
//唤醒所有交换内存的线程
if (alloc_flags & ALLOC_KSWAPD)
wake_all_kswapds(order, gfp_mask, ac);
//依然调用快速分配路径入口函数尝试分配内存页面
page = get_page_from_freelist(gfp_mask, order, alloc_flags, ac);
if (page)
goto got_pg;
//尝试直接回收内存并且再分配内存页面
page = __alloc_pages_direct_reclaim(gfp_mask, order, alloc_flags, ac,
&did_some_progress);
if (page)
goto got_pg;
//尝试直接压缩内存并且再分配内存页面
page = __alloc_pages_direct_compact(gfp_mask, order, alloc_flags, ac,
compact_priority, &compact_result);
if (page)
goto got_pg;
//检查对于给定的分配请求,重试回收是否有意义
if (should_reclaim_retry(gfp_mask, order, ac, alloc_flags,
did_some_progress > 0, &no_progress_loops))
goto retry;
//检查对于给定的分配请求,重试压缩是否有意义
if (did_some_progress > 0 &&
should_compact_retry(ac, order, alloc_flags,
compact_result, &compact_priority,
&compaction_retries))
goto retry;
//回收、压缩内存已经失败了,开始尝试杀死进程,回收内存页面
page = __alloc_pages_may_oom(gfp_mask, order, ac, &did_some_progress);
if (page)
goto got_pg;
got_pg:
return page;
}
```
上述代码中,依然会调用快速分配路径入口函数进行分配,不过到这里大概率会分配失败,如果能成功分配,也就不会进入到\_\_alloc\_pages\_slowpath函数中。
\_\_alloc\_pages\_slowpath函数一开始会唤醒所有用于内存交换回收的线程get\_page\_from\_freelist函数分配失败了就会进行内存回收内存回收主要是释放一些文件占用的内存页面。如果内存回收不行就会就进入到内存压缩环节。
这里有一个常见的误区你要留意,**内存压缩不是指压缩内存中的数据,而是指移动内存页面,进行内存碎片整理****腾出更大的连续的内存空间。**如果内存碎片整理了,还是不能成功分配内存,就要杀死进程以便释放更多内存页面了。
因为回收内存的机制不是重点,我们主要关注的是伙伴系统的实现,这里你只要明白它们工作流程就好了。
### 如何分配内存页面
无论快速分配路径还是慢速分配路径最终执行内存页面分配动作的始终是get\_page\_from\_freelist函数更准确地说实际完成分配任务的是**rmqueue函数**。
我们弄懂了这个函数,才能真正搞清楚伙伴系统的核心原理,后面这段是它的代码。
```
static inline struct page *rmqueue(struct zone *preferred_zone,
struct zone *zone, unsigned int order,
gfp_t gfp_flags, unsigned int alloc_flags,
int migratetype)
{
unsigned long flags;
struct page *page;
if (likely(order == 0)) {
if (!IS_ENABLED(CONFIG_CMA) || alloc_flags & ALLOC_CMA ||
migratetype != MIGRATE_MOVABLE) {
//如果order等于0,就说明是分配一个页面说就从pcplist中分配
page = rmqueue_pcplist(preferred_zone, zone, gfp_flags,
migratetype, alloc_flags);
goto out;
}
}
//加锁并关中断
spin_lock_irqsave(&zone->lock, flags);
do {
page = NULL;
if (order > 0 && alloc_flags & ALLOC_HARDER) {
//从free_area中分配
page = __rmqueue_smallest(zone, order, MIGRATE_HIGHATOMIC);
}
if (!page)
//它最后也是调用__rmqueue_smallest函数
page = __rmqueue(zone, order, migratetype, alloc_flags);
} while (page && check_new_pages(page, order));
spin_unlock(&zone->lock);
zone_statistics(preferred_zone, zone);
local_irq_restore(flags);
out:
return page;
}
```
这段代码中我们只需要关注两个函数rmqueue\_pcplist和\_\_rmqueue\_smallest这是分配内存页面的核心函数。
先来看看rmqueue\_pcplist函数在请求分配一个页面的时候就是用它从pcplist中分配页面的。所谓的pcp是指每个CPU都有一个内存页面高速缓冲由数据结构per\_cpu\_pageset描述包含在内存区中。
在Linux内核中系统会经常请求和释放单个页面。如果针对每个CPU都建立出预先分配了单个内存页面的链表用于满足本地CPU发出的单一内存请求就能提升系统的性能代码如下所示。
```
struct per_cpu_pages {
int count; //列表中的页面数
int high; //页面数高于水位线,需要清空
int batch; //从伙伴系统增加/删除的块数
//页面列表,每个迁移类型一个。
struct list_head lists[MIGRATE_PCPTYPES];
};
struct per_cpu_pageset {
struct per_cpu_pages pcp;
#ifdef CONFIG_NUMA
s8 expire;
u16 vm_numa_stat_diff[NR_VM_NUMA_STAT_ITEMS];
#endif
#ifdef CONFIG_SMP
s8 stat_threshold;
s8 vm_stat_diff[NR_VM_ZONE_STAT_ITEMS];
#endif
};
static struct page *__rmqueue_pcplist(struct zone *zone, int migratetype,unsigned int alloc_flags,struct per_cpu_pages *pcp,
struct list_head *list)
{
struct page *page;
do {
if (list_empty(list)) {
//如果list为空就从这个内存区中分配一部分页面到pcp中来
pcp->count += rmqueue_bulk(zone, 0,
pcp->batch, list,
migratetype, alloc_flags);
if (unlikely(list_empty(list)))
return NULL;
}
//获取list上第一个page结构
page = list_first_entry(list, struct page, lru);
//脱链
list_del(&page->lru);
//减少pcp页面计数
pcp->count--;
} while (check_new_pcp(page));
return page;
}
static struct page *rmqueue_pcplist(struct zone *preferred_zone,
struct zone *zone, gfp_t gfp_flags,int migratetype, unsigned int alloc_flags)
{
struct per_cpu_pages *pcp;
struct list_head *list;
struct page *page;
unsigned long flags;
//关中断
local_irq_save(flags);
//获取当前CPU下的pcp
pcp = &this_cpu_ptr(zone->pageset)->pcp;
//获取pcp下迁移的list链表
list = &pcp->lists[migratetype];
//摘取list上的page结构
page = __rmqueue_pcplist(zone, migratetype, alloc_flags, pcp, list);
//开中断
local_irq_restore(flags);
return page;
}
```
上述代码的注释已经很清楚了,它主要是优化了请求分配单个内存页面的性能。但是遇到多个内存页面的分配请求,就会调用\_\_rmqueue\_smallest函数从free\_area数组中分配。
我们一起来看看\_\_rmqueue\_smallest函数的代码。
```
static inline struct page *get_page_from_free_area(struct free_area *area,int migratetype)
{//返回free_list[migratetype]中的第一个page若没有就返回NULL
return list_first_entry_or_null(&area->free_list[migratetype],
struct page, lru);
}
static inline void del_page_from_free_list(struct page *page, struct zone *zone,unsigned int order)
{
if (page_reported(page))
__ClearPageReported(page);
//脱链
list_del(&page->lru);
//清除page中伙伴系统的标志
__ClearPageBuddy(page);
set_page_private(page, 0);
//减少free_area中页面计数
zone->free_area[order].nr_free--;
}
static inline void add_to_free_list(struct page *page, struct zone *zone,
unsigned int order, int migratetype)
{
struct free_area *area = &zone->free_area[order];
//把一组page的首个page加入对应的free_area中
list_add(&page->lru, &area->free_list[migratetype]);
area->nr_free++;
}
//分割一组页
static inline void expand(struct zone *zone, struct page *page,
int low, int high, int migratetype)
{
//最高order下连续的page数 比如high = 3 size=8
unsigned long size = 1 << high;
while (high > low) {
high--;
size >>= 1;//每次循环左移一位 4,2,1
//标记为保护页,当其伙伴被释放时,允许合并
if (set_page_guard(zone, &page[size], high, migratetype))
continue;
//把另一半pages加入对应的free_area中
add_to_free_list(&page[size], zone, high, migratetype);
//设置伙伴
set_buddy_order(&page[size], high);
}
}
static __always_inline struct page *__rmqueue_smallest(struct zone *zone, unsigned int order,int migratetype)
{
unsigned int current_order;
struct free_area *area;
struct page *page;
for (current_order = order; current_order < MAX_ORDER; ++current_order) {
//获取current_order对应的free_area
area = &(zone->free_area[current_order]);
//获取free_area中对应migratetype为下标的free_list中的page
page = get_page_from_free_area(area, migratetype);
if (!page)
continue;
//脱链page
del_page_from_free_list(page, zone, current_order);
//分割伙伴
expand(zone, page, order, current_order, migratetype);
set_pcppage_migratetype(page, migratetype);
return page;
}
return NULL;
}
```
可以看到,在\_\_rmqueue\_smallest函数中首先要取得current\_order对应的free\_area区中page若没有就继续增加current\_order直到最大的MAX\_ORDER。要是得到一组连续page的首地址就对其脱链然后调用expand函数分割伙伴。
可以说**expand函数是完成伙伴算法的核心**结合注释你有没有发现它和我们Cosmos物理内存分配算法有点类似呢伙伴系统算法的核心我们现在已经搞清楚了下节课我再跟你说说SLAB。
## 重点回顾
至此,伙伴系统我们就介绍完了,我来帮你梳理一下本课程的重点,主要有两个方面。
首先我们学习了伙伴系统的数据结构我们从页开始Linux用page结构代表一个物理内存页面接着在page上层定义了内存区zone这是为了不同的地址空间的分配要求。然后Linux为了支持NUMA体系的计算机而定义了**节点pglist\_data**每个节点中包含了多个zone我们一起理清了这些数据结构之间的关系。
之后,我们进入到分配页面这一步,为了理解伙伴系统的内存分配的原理,我们研究了伙伴系统的分配接口,然后重点分析了它的快速分配路径和慢速分配路径。
只有在快速分配路径失败之后才会进入慢速分配路径慢速分配路径中会进行内存回收相关的工作。最后我们一起了解了expand函数是如何分割伙伴完成页面分配的。
## 思考题
在默认配置下Linux伙伴系统能分配多大的连续物理内存
欢迎你在留言区跟我交流互动也欢迎你把这节课转给对Linux伙伴系统感兴趣的朋友一去学习进步。
我是LMOS我们下节课见