Page Fram Reclaim Algorithm

内存回收的算法,在Gorman的巨著Understanding the Linux Virtual Memory Manager中有详细的介绍。

Page Frame Reclaim Algorithm

虽然这部分已经是古董级的材料了,但是作为原理还是很值得研究的。

LRU定义

回收策略通常被称为Least Recently Used (LRU)。在内核中,对应的数据结构是lruvec。

    lruvec
    +-------------------------------+
    |lists[NR_LRU_LISTS]            |
    |    (struct list_head)         |
    |lru_lock                       |
    |    (spinlock_t)               |
    |anon_cost                      |
    |file_cost                      |
    |    (unsigned long)            |
    |nonresident_age                |
    |    (atomic_long_t)            |
    |flags                          |
    |    (unsigned long)            |
    |refaults[ANON_AND_FILE]        |
    |    (unsigned long)            |
    |pgdat                          |
    |    (struct pglist_data*)      |
    +-------------------------------+

其中lists代表的就是大名鼎鼎的lru lists。这个上面一共有五个链表:

简单来说,回收的过程就是从lru lists上找到合适的page做回收。

lruvec在哪里

lruvec是可以理解成一个系统中已经分配除去的页面的集散地,目的是为了后续释放而存在的。要找到这个lruvec在哪里,我们就要看folio_lruvec()这个函数。

毕竟内核演化这么多年了,这个lruvec可能出现在两个不同的位置。PS:当然不是同时出现。

  • pgdat->__lruvec: 没有memcg,或者有memcg但是disable的情况下

  • memcg的lruvec: 有memcg且enable的情况下

所以在操作lruvec时,会先找到folio对应的memcg,然后去操作。

把页放到lru上之前

lru是这样一个数据结构,就好像一个收纳箱。我们把使用的页放在里面,当这个箱子塞满的时候,我们就要清理这个箱子。为了能够更好的清理,我们按照了一定算法在这个箱子里摆放页。这个工作在内核中就是PFRA(Page Frame Reclaim Algorithm)算法了。

为了更好的理解这个算法,我们可以将这个过程进一步拆解为:

  • 将页存放进箱子和箱子内腾挪的步骤

  • 腾挪操作的算法原理

第一步完全是为了更好理解内核代码做的工程化拆解,也是本小节的主要内容。但是再放到lru之前,内核为了减少竞争,增加了一个存放的缓存空间。

cpu_fbatches

说实话,下面的pagevec我已经全忘记了。现在,2025.10.06,重看这部分代码,pagevec已经消失了。如果我没有猜错的话,替代pagevec的,就是cpu_fbatches。

首先,这也是一个percpu的变量,可以也是一个加入到lru之前的缓冲区。

这么看,其实和原来的lru_pvecs很像,不过是用folio_batch替换了之前的pagevec。然后再一看,folio_batch和pagevec也是很像的。所以这个其实就是从page到folio的一个变化。

对应的commit也可以看出这个变化。

除了数据结构的变化,操作上也发生了变化。我猜现在操作上主要都几种到了函数folio_batch_add_and_move()。

不得不说,内核开发者这些c语言大师对代码的精妙处理。这种代码都写得出来。

第一步是将folio添加到对应的folio_batch中,起到了缓存的作用。如果对应的folio_batch满了,才会使用folio_batch_move_lru(),并通过对应的move_fn对folio进行处理。:

从cpu_fbatches的定义可以看出,这里的move_fn有6种可能性:

  • lru_add

  • lru_deactivate_file

  • lru_deactivate

  • lru_lazyfree

  • lru_activate

  • lru_move_tail

而这些就是将folio放到对应lruvec上链表的具体操作了。

pagevec -- 老版本

半路杀出个程咬金,lruvec的怎么又出来了个pagevec?怎么讲呢,内核为了减少锁竞争,在把页放入lruvec前,先放到percpu的pagevec上。相当于做了一个软cache。

我们先来看看内核中有多少pagevec。

考虑到内核中还有别的子系统使用pagevec,这里只列出和lru相关的。所以这么数来,一共有七个相关的pagevec。而对于每一个pagevec,内核中都有对应的函数处理。咱们先把相关的函数展示出来。

本来我想把这两个合一块的,社区没同意。也好,那就分开看看。

先解释一下上面的图:

  • mlock_pvec 比较独立。添加到mlock_pvec后,由mlock_pagevec加到lru上

  • 其余的pagevec都通过pagevec_add_and_need_flush检查后,做相应的操作

  • folio_add_lru/mlock_new_page 是两个加入到pagevec的入口函数

将folio放到lru

在上面的分析中,我们看到folio_batch_move_lru()函数接收的move_fn可以有下面六中情况:

  • lru_add

  • lru_deactivate_file

  • lru_deactivate

  • lru_lazyfree

  • lru_activate

  • lru_move_tail

这些才是真正操作lruvec的地方。

比如lru_add将folio添加到lruvec->lists[lru]; lru_deactivate将folio从active上取下,放到deactivate的链表上。

Last updated

Was this helpful?