内核内存管理. 第一部分.
内存块
内存块是在引导初期,泛用内核内存分配器还没有开始工作时对内存区域进行管理的方法之一。以前它被称为 逻辑内存块
,但是内核接纳了 后改名为 memblock
。x86_64
架构上的内核会使用这个方法。我们已经在讲解内核进入点之前的准备工作时遇到过了它。现在是时候对它更加熟悉了。我们会看到它是被怎样实现的。
我们首先会学习 memblock
的数据结构。以下所有的数据结构都在 头文件中定义。
第一个结构体的名字就叫做 memblock
。它的定义如下:
这个结构体包含五个域。第一个 bottom_up
域置为 true
时允许内存以自底向上模式进行分配。下一个域是 current_limit
。 这个域描述了内存块的尺寸限制。接下来的三个域描述了内存块的类型。内存块的类型可以是:被保留,内存和物理内存(如果 CONFIG_HAVE_MEMBLOCK_PHYS_MAP
编译配置选项被开启)。接下来我们来看看下一个数据结构- memblock_type
。让我们来看看它的定义:
struct memblock_type {
unsigned long cnt;
unsigned long max;
phys_addr_t total_size;
struct memblock_region *regions;
};
这个结构体提供了关于内存类型的信息。它包含了描述当前内存块中内存区域的数量、所有内存区域的大小、内存区域的已分配数组的尺寸和指向 memblock_region
结构体数据的指针的域。memblock_region
结构体描述了一个内存区域,定义如下:
struct memblock_region {
phys_addr_t base;
phys_addr_t size;
unsigned long flags;
#ifdef CONFIG_HAVE_MEMBLOCK_NODE_MAP
int nid;
#endif
};
memblock_region
提供了内存区域的基址和大小,flags
域可以是:
#define MEMBLOCK_ALLOC_ANYWHERE (~(phys_addr_t)0)
#define MEMBLOCK_ALLOC_ACCESSIBLE 0
#define MEMBLOCK_HOTPLUG 0x1
同时,如果 CONFIG_HAVE_MEMBLOCK_NODE_MAP
编译配置选项被开启, memblock_region
结构体也提供了整数域 - numa 节点选择器。
我们将以上部分想象为如下示意图:
+---------------------------+ +---------------------------+
| memblock | | |
| _______________________ | | |
| | memory | | | Array of the |
| | memblock_type |-|-->| membock_region |
| |_______________________| | | |
| | +---------------------------+
| _______________________ | +---------------------------+
| | reserved | | | |
| | memblock_type |-|-->| Array of the |
| |_______________________| | | memblock_region |
| | | |
+---------------------------+ +---------------------------+
这三个结构体: memblock
, memblock_type
和 memblock_region
是 Memblock
的主要组成部分。现在我们可以进一步了解 Memblock
和 它的初始化过程了。
所有 memblock
的 API 都在 头文件中描述, 所有函数的实现都在 mm/memblock.c 源码中。首先我们来看一下源码的开头部分和 memblock
结构体的初始化吧。
struct memblock memblock __initdata_memblock = {
.memory.regions = memblock_memory_init_regions,
.memory.cnt = 1,
.memory.max = INIT_MEMBLOCK_REGIONS,
.reserved.regions = memblock_reserved_init_regions,
.reserved.cnt = 1,
.reserved.max = INIT_MEMBLOCK_REGIONS,
#ifdef CONFIG_HAVE_MEMBLOCK_PHYS_MAP
.physmem.regions = memblock_physmem_init_regions,
.physmem.cnt = 1,
.physmem.max = INIT_PHYSMEM_REGIONS,
#endif
.bottom_up = false,
.current_limit = MEMBLOCK_ALLOC_ANYWHERE,
};
在这里我们可以看到 memblock
结构体的同名变量的初始化。首先请注意 __initdata_memblock
。这个宏的定义就像这样:
#ifdef CONFIG_ARCH_DISCARD_MEMBLOCK
#define __initdata_memblock __meminitdata
#else
#define __init_memblock
#define __initdata_memblock
#endif
你会发现这个宏依赖于 CONFIG_ARCH_DISCARD_MEMBLOCK
。如果这个编译配置选项开启,内存块的代码会被放置在 .init
段,这样它就会在内核引导完毕后被释放掉。
接下来我们可以看看 memblock_type memory
, memblock_type reserved
和 memblock_type physmem
域的初始化。在这里我们只对 memblock_type.regions
的初始化过程感兴趣,请注意每一个 域都是 memblock_region
的数组初始化的:
static struct memblock_region memblock_memory_init_regions[INIT_MEMBLOCK_REGIONS] __initdata_memblock;
static struct memblock_region memblock_reserved_init_regions[INIT_MEMBLOCK_REGIONS] __initdata_memblock;
#ifdef CONFIG_HAVE_MEMBLOCK_PHYS_MAP
static struct memblock_region memblock_physmem_init_regions[INIT_PHYSMEM_REGIONS] __initdata_memblock;
#endif
每个数组包含了 128 个内存区域。我们可以在 INIT_MEMBLOCK_REGIONS
宏定义中看到它:
#define INIT_MEMBLOCK_REGIONS 128
请注意所有的数组定义中也用到了在 memblock
中使用过的 __initdata_memblock
宏(如果忘掉了就翻到上面重温一下)。
最后两个域描述了 bottom_up
分配是否被开启以及当前内存块的限制:
#define MEMBLOCK_ALLOC_ANYWHERE (~(phys_addr_t)0)
这个限制是 0xffffffffffffffff
.
On this step the initialization of the memblock
structure has been finished and we can look on the Memblock API.
到此为止 memblock
结构体的初始化就结束了,我们可以开始看内存块相关 API 了。
内存块应用程序接口
这个函数获取了物理基址和内存区域的大小并把它们加到了 memblock
中。memblock_add
函数本身没有做任何特殊的事情,它只是调用了
函数。我们将内存块类型 - memory
,内存基址和内存区域大小,节点的最大数目和标志传进去。如果 CONFIG_NODES_SHIFT
没有被设置,最大节点数目就是 1,否则是 1 << CONFIG_NODES_SHIFT
。memblock_add_range
函数将新的内存区域加到了内存块中,它首先检查传入内存区域的大小,如果是 0 就直接返回。然后,这个函数会用 memblock_type
来检查 memblock
中的内存区域是否存在。如果不存在,我们就简单地用给定的值填充一个新的 memory_region
然后返回(我们已经在对内核内存管理框架的初览中看到了它的实现)。如果 memblock_type
不为空,我们就会使用提供的 memblock_type
将新的内存区域加到 memblock
中。
首先,我们获取了内存区域的结束点:
phys_addr_t end = base + memblock_cap_size(base, &size);
memblock_cap_size
调整了 size
使 base + size
不会溢出。它的实现非常简单:
static inline phys_addr_t memblock_cap_size(phys_addr_t base, phys_addr_t *size)
{
return *size = min(*size, (phys_addr_t)ULLONG_MAX - base);
}
memblock_cap_size
返回了提供的值与 ULLONG_MAX - base
中的较小值作为新的尺寸。
之后,我们获得了新的内存区域的结束地址,memblock_add_range
会检查与已加入内存区域是否重叠以及能否合并。将新的内存区域插入 memblock
包含两步:
- 将新内存区域的不重叠部分作为单独的区域加入;
- 合并所有相接的区域。
我们会迭代所有的已存储内存区域来检查是否与新区域重叠:
for (i = 0; i < type->cnt; i++) {
struct memblock_region *rgn = &type->regions[i];
phys_addr_t rbase = rgn->base;
phys_addr_t rend = rbase + rgn->size;
if (rbase >= end)
break;
if (rend <= base)
continue;
...
...
...
}
如果新的内存区域不与已有区域重叠,直接插入。否则我们会检查这个新内存区域是否合适并调用 memblock_double_array
函数:
while (type->cnt + nr_new > type->max)
if (memblock_double_array(type, obase, size) < 0)
return -ENOMEM;
insert = true;
goto repeat;
memblock_double_array
会将提供的区域数组长度加倍。然后我们会将 insert
置为 true
,接着跳转到 repeat
标签。第二步,我们会从 repeat
标签开始,迭代同样的循环然后使用 memblock_insert_region
函数将当前内存区域插入内存块:
if (base < end) {
nr_new++;
if (insert)
memblock_insert_region(type, i, base, end - base,
nid, flags);
}
我们在第一步将 insert
置为 true
,现在 memblock_insert_region
会检查这个标志。memblock_insert_region
的实现与我们将新区域插入空 memblock_type
的实现(看上面)几乎相同。这个函数会获取最后一个内存区域:
struct memblock_region *rgn = &type->regions[idx];
然后用 memmove
拷贝这部分内存:
memmove(rgn + 1, rgn, (type->cnt - idx) * sizeof(*rgn));
之后我们会填充 memblock_region
域,然后增长 memblock_type
的尺寸。在函数执行的结束,memblock_add_range
会调用 memblock_merge_regions
来在第二步合并相邻可合并的内存区域。
还有第二种情况,新的内存区域与已储存区域完全重叠。比如 中已经有了 region1
:
0 0x1000
+-----------------------+
| |
| |
| region1 |
| |
| |
+-----------------------+
现在我们想在 memblock
中添加 region2
,它的基址和尺寸如下:
0x100 0x2000
+-----------------------+
| |
| region2 |
| |
| |
+-----------------------+
在这种情况下,新内存区域的基址会被像下面这样设置:
所以在我们设置的这种场景中,它会被设置为 0x1000
。然后我们会在第二步中将这个区域插入:
if (base < end) {
nr_new++;
if (insert)
memblock_insert_region(type, i, base, end - base, nid, flags);
}
在这种情况下我们会插入 overlapping portion
(我们之插入地址高的部分,因为低地址部分已经被包含在重叠区域里了),然后会使用 memblock_merge_regions
合并剩余部分区域。就像我上文中所说的那样,这个函数会合并相邻的可合并区域。它会从给定的 memblock_type
遍历所有的内存区域,取出两个相邻区域 - type->regions[i]
和 type->regions[i + 1]
,并检查他们是否拥有同样的标志,是否属于同一个节点,第一个区域的末尾地址是否与第二个区域的基地址相同。
while (i < type->cnt - 1) {
struct memblock_region *this = &type->regions[i];
struct memblock_region *next = &type->regions[i + 1];
if (this->base + this->size != next->base ||
memblock_get_region_node(this) !=
memblock_get_region_node(next) ||
this->flags != next->flags) {
BUG_ON(this->base + this->size > next->base);
i++;
continue;
}
如果上面所说的这些条件全部符合,我们就会更新第一个区域的长度,将第二个区域的长度加上去。
this->size += next->size;
memmove(next, next + 1, (type->cnt - (i + 2)) * sizeof(*next));
然后将 memblock_type
中内存区域的数量减一:
type->cnt--;
经过这些操作后我们就成功地将两个内存区域合并了:
0 0x2000
+------------------------------------------------+
| |
| |
| region1 |
| |
| |
+------------------------------------------------+
这就是 memblock_add_range
函数的工作原理和执行过程。
同样还有一个 memblock_reserve
函数与 memblock_add
几乎完成同样的工作,只有一点不同: memblock_reserve
将 memblock_type.reserved
而不是 memblock_type.memory
储存到内存块中。
当然这不是全部的 API。内存块不仅提供了添加 memory
和 reserved
内存区域,还提供了:
- memblock_remove - 从内存块中移除内存区域;
- memblock_find_in_range - 寻找给定范围内的未使用区域;
- memblock_free - 释放内存块中的内存区域;
- for_each_mem_range - 迭代遍历内存块区域。
等等……
内存块还提供了获取 memblock
中已分配内存区域信息的 API。包括两部分:
- get_allocated_memblock_memory_regions_info - 获取有关内存区域的信息;
- get_allocated_memblock_reserved_regions_info - 获取有关保留区域的信息。
这些函数的实现都很简单。以 get_allocated_memblock_reserved_regions_info
为例:
phys_addr_t __init_memblock get_allocated_memblock_reserved_regions_info(
phys_addr_t *addr)
{
if (memblock.reserved.regions == memblock_reserved_init_regions)
return 0;
*addr = __pa(memblock.reserved.regions);
return PAGE_ALIGN(sizeof(struct memblock_region) *
memblock.reserved.max);
}
这个函数首先会检查 memblock
是否包含保留内存区域。如果否,就直接返回 0 。否则函数将保留内存区域的物理地址写到传入的数组中,然后返回已分配数组的对齐后尺寸。注意函数使用 PAGE_ALIGN
这个宏实现对齐。实际上这个宏依赖于页的尺寸:
#define PAGE_ALIGN(addr) ALIGN(addr, PAGE_SIZE)
get_allocated_memblock_memory_regions_info
函数的实现是基本一样的。只有一处不同,get_allocated_memblock_memory_regions_info
使用 memblock_type.memory
而不是 memblock_type.reserved
。
内存块的相关除错技术
在内存块的实现中有许多对 memblock_dbg
的调用。如果在内核命令行中传入 memblock=debug
选项,这个函数就会被调用。实际上 memblock_dbg
是 printk
的一个拓展宏:
#define memblock_dbg(fmt, ...) \
if (memblock_debug) printk(KERN_INFO pr_fmt(fmt), ##__VA_ARGS__)
比如你可以在 memblock_reserve
函数中看到对这个宏的调用:
然后你将看到类似下图的画面:
内存块技术也支持 debugfs 。如果你不是在 架构下运行内核,你可以访问:
- /sys/kernel/debug/memblock/memory
- /sys/kernel/debug/memblock/reserved
- /sys/kernel/debug/memblock/physmem
来获取 memblock
内容的核心转储信息。
讲解内核内存管理的第一部分到此结束,如果你有任何的问题或者建议,你可以直接发消息给我,也可以给我发邮件或是直接创建一个 。
英文不是我的母语。如果你发现我的英文描述有任何问题,请提交一个PR到linux-insides.