在每一个Buffer Pool Instance中,实际都会维护一个自己的Buffer Pool模块,InnoDB通过16KB Page的方式将数据从文件中读取到Buffer Pool中,并通过一个LRU List来缓存这些Page,经常访问的Page在LRU List的前面,不经常访问的Page在后面。InnoDB访问一个Page时,首先会从Buffer Pool中获取,如果未找到,则会访问数据文件,读取到Page,并将其put到LRU List中,当一个Instance的Buffer Pool中没有可用的空闲Page时,会对LRU List中的Page进行淘汰。

由于Buffer Pool中夹杂了很多Page压缩的逻辑,即将实际的16KB Page压缩为8KB、4KB、2KB、1KB,这块逻辑暂时先跳过不去做分析,我们先按照默认Page就是16KB的逻辑来梳理Buffer Pool相关的逻辑。

Buffer Pool Instance:

InnoDB启动时会加载配置srv_buf_pool_size和srv_buf_pool_instances,分别是Buffer Pool总大小和需要划分的Instance数量,当srv_buf_pool_size小于1G时,srv_buf_pool_instances会被重置为1,单个Buffer Pool Instance的大小计算规则为:size=srv_buf_pool_size/srv_buf_pool_instances,每个Buffer Pool Instance的大小均相等。在Mysql 8.0中,最大支持64个Buffer Pool Instance,实际Instance在初始化时,为了加快分配速度,会根据运行环境进行调整并行初始化的数量,详细流程见Buffer Pool初始化。

在每个Buffer Pool Instance中都有包含自己的锁,mutex,Buffer chunks,各个页链表(如下面所介绍),每个Instance之间都是独立的,支持多线程并发访问,且一个page只会被存放在一个固定的Instance中,后续会详细介绍这个算法。

在每个Buffer Pool Instance中还包含一个page_hash的hash table,通过这个page_hash能快速找到LRU List中的page,避免扫描整个LRU List,极大提升了Page的访问效率。

Buffer chunks:

Buffer chunks是每个Buffer Pool Instance中实际的物理存储块数组,一个Buffer Pool Instance中有一个或多个chunk,每个chunk的大小默认为128MB,最小为1MB,且这个值在8.0中时可以动态调整生效的。每个Buffer chunk中包含一个buf_block_t的blocks数组(即Page),Buffer chunk主要存储数据页和数据页控制体,blocks数组中的每个buf_block_t是一个数据页控制体,其中包含了一个指向具体数据页的*frame指针,以及具体的控制体buf_page_t,后面在数据结构中详细阐述他们的关系。

页链表:

以下所有的链表中的每个节点都是数据页控制体(buf_page_t)。

  • Free List:如其名,Free List中存放的都是未曾使用的空闲Page,InnoDB需要Page时从Free List中获取,如果Free List为空,即没有任何空闲Page,则会从LRU List和Flush List中通过淘汰旧Page和Flush脏Page来回收Page。在InnoDB初始化时,会将Buffer chunks中的所有Page加入到Free List中。

  • LRU List:所有从数据文件中新读取进来的Page都会缓存在LRU List,并通过LRU策略对这些Page进行管理。LRU List实际划分为Young和Old两个部分,其中Young区保存的是较热的数据,Old区保存的是刚从数据文件中读取出来的数据,如果LRU List的长度小于512,则不会将其拆分为Young和Old区。当InnoDB读取Page时,首先会从当前Buffer Pool Instance的page_hash查找,并分为三种情况来处理:

    1. 如果在page_hash找到,即Page在LRU List中,则会判断Page是在Old区还是Young区,如果是在Old区,在读取完Page后会把它添加到Young区的链表头部
    2. 如果在page_hash找到,并且Page在Young区,需要判断Page所在Young区的位置,只有Page处于Young区总长度大约1/4的位置之后,才会将其添加到Young区的链表头部
    3. 如果未能在page_hash找到,则需要去数据文件中读取Page,并将其添加到Old区的头部

    LRU List采用非常精细的LRU淘汰策略来管理Page,并且用以上机制避免了频繁对LRU 链表的调整。

Mutex:

为保证各个页链表访问时的互斥,Buffer Pool中提供了对几个List的Mutex,如LRU_list_mutex用来保护LRU List的访问,free_list_mutex用来保护Free List的访问,flush_list_mutex用来保护Flush List的访问。

Page_hash:

在每个Buffer Pool Instance中都会包含一个独立的Page_hash,其作用主要是为了避免对LRU List的全链表扫描,通过使用space_id和page_no就能快速找到已经被读入Buffer Pool的Page。

初步了解了Buffer Pool在InnoDB中扮演的角色后,接下来我们从以下几个方面来探讨一下在Mysql 8.0中InnoDB Buffer Pool的具体实现:

  • Buffer Pool 数据结构
  • Buffer Pool 初始化
  • Buffer Pool 读取和写入
  • 页链表的访问

Buffer Pool主要包含三个核心的数据结构buf_pool_t、buf_block_t和buf_page_t,其定义都在include/buf0buf.h中,分别看一下其具体实现:

  1. buf_page_t page; //这个字段必须要放到第一个位置,这样才能使得buf_block_t和buf_page_t的指针进行 转换
  2. byte *frame; //指向真正存储数据的Page
  3. BPageMutex mutex; //block级别的mutex
  4. ...
  5. }
  1. class buf_page_t {
  2. ...
  3. page_id_t id; //page id
  4. page_size_t size; //page 大小
  5. ib_uint32_t buf_fix_count; //用于并发控制
  6. buf_io_fix io_fix; //用于并发控制
  7. buf_page_state state; //当前Page所处的状态,后续会详细介绍
  8. lsn_t newest_modification; //当前Page最新修改lsn
  9. lsn_t oldest_modification; //当前Page最老修改lsn,即第一条修改lsn
  10. ...
  11. }

主要的三个数据结构就都已经罗列在上面了,还有个比较重要的buf_page_state,这是一个枚举类型,标识了每个Page所处的状态,在读取和访问时都会对应不同的状态转换,接下来我们简单看一下:

在不考虑压缩Page的情况下,buf_page_state的状态转换一般为:


要说起Buffer Pool的初始化,就不得不先提到InnoDB的启动流程,我们首先从srv/srv0start.cc的srv_start函数看起,这里是整个InnoDB启动的地方。

  1. srv_start()->buf_pool_init(srv_buf_pool_size, srv_buf_pool_instances){//初始化Buffer Pool
  2. const ulint size = total_size / n_instances; //计算单个instance的大小
  3. buf_pool_ptr =
  4. (buf_pool_t *)ut_zalloc_nokey(n_instances * sizeof *buf_pool_ptr); //初始化buf_pool_t 数组
  5. #ifdef UNIV_LINUX //该宏定义主要为了加快Buffer Pool的并行初始化
  6. ulint n_cores = sysconf(_SC_NPROCESSORS_ONLN);
  7. if (n_cores > 8) {
  8. n_cores = 8; //Linux环境下最大并行度为8个
  9. }
  10. #else
  11. ulint n_cores = 4; //其他环境最大并行度为4个
  12. #endif /* UNIV_LINUX */
  13. for (i = 0; i < n_instances; ) {
  14. ulint n = i + n_cores;
  15. if (n > n_instances) { //判断初始化最大并行度是否超过n_instances
  16. n = n_instances;
  17. }
  18. std::vector<std::thread> threads;
  19. std::mutex m;
  20. //并行创建Instance,调用buf_pool_create()函数
  21. for (ulint id = i; id < n; ++id) {
  22. id, &m, std::ref(errs[id])));
  23. }
  24. i = n; //从n开始继续初始化
  25. ...
  26. }
  27. }

在buf0buf.cc::buf_pool_create()函数中会完成对Buffer Pool Instance的初始化,主要是Buffer Chunks的初始化,即调用buf_chunk_init()函数:

  1. buf_pool_create()->buf_chunk_init(){
  2. ...
  3. //分配内存,默认每个chunk的大小为128M,默认通过mmap来分配
  4. chunk->mem = buf_pool->allocator.allocate_large(mem_size, &chunk->mem_pfx);
  5. //从内存的头部开始分配block控制信息
  6. chunk->blocks = (buf_block_t *)chunk->mem;
  7. //frame是指向实际Page的指针,需要将其通过UNIV_PAGE_SIZE对齐,此时frame也指向内存区域的头部
  8. frame = (byte *)ut_align(chunk->mem, UNIV_PAGE_SIZE);
  9. //计算出该chunk能分配出多少个Page,
  10. chunk->size = chunk->mem_pfx.m_size / UNIV_PAGE_SIZE - (frame != chunk->mem);
  11. ulint size = chunk->size;
  12. /*
  13. 一个Page包含一个的16KB的Page和一个对应的控制信息(buf_block_t),一个buf_block_t对应一个Page
  14. 所有的Page页面都是连续在一起存储的组成了Page区,buf_block_t也是连续存储的组成了控制信息区
  15. 控制信息区处于这块内存的前半部分,Page区域位于后半部分
  16. 为了更容易理解这个循环所做的事情,我们先理一理思路
  17. 如何把一块连续的内存分为两个区域,即控制信息区和Page区,且每个Page必须要有一个对应的buf_block_t 我们把整个连续内存拆分为一个个16KB大小的Page,然后把其中第一个Page用于存储所有的buf_block_t
  18. 如果buf_block_t的数量太多导致第一个Page放不下,则需要把第二个Page也用于存储buf_block_t
  19. 依次类推,每使用一个Page页用于存储buf_block_t,那么chunk的Page size就要减1
  20. frame是一个指向Page页的指针,它从chunk的头部出发,当有足够的空间用于存储buf_block_t, 即frame的地址大于整个buf_block_t控制信息需要的总长度,就会跳出While循环
  21. 反之,空间不足则需要再花费一片Page,同时size--
  22. 这样的分配模式能减少内存碎片的产生,能提高内存的使用率
  23. */
  24. while (frame < (byte *)(chunk->blocks + size)) {
  25. frame += UNIV_PAGE_SIZE;
  26. size--;
  27. }
  28. //最终获得的size是准确的Page数量
  29. chunk->size = size;
  30. block = chunk->blocks;
  31. //循环初始化所有的控制信息buf_block_t和Page
  32. for (i = chunk->size; i--;) {
  33. buf_block_init(buf_pool, block, frame);
  34. //把所有的空闲Page添加到Buffer Pool Instance的Free List中
  35. UT_LIST_ADD_LAST(buf_pool->free, &block->page);
  36. //标记当前控制信息buf_block_t所指向的Page是在Free List中
  37. ut_d(block->page.in_free_list = TRUE);
  38. ut_ad(buf_pool_from_block(block) == buf_pool);
  39. block++;
  40. //frame指针指向下一个Page
  41. frame += UNIV_PAGE_SIZE;
  42. }
  43. //互斥量lock
  44. if (mutex != nullptr) {
  45. mutex->lock();
  46. }
  47. //注册chunk
  48. buf_pool_register_chunk(chunk);
  49. //互斥量unlock
  50. if (mutex != nullptr) {
  51. mutex->unlock();
  52. }
  53. ...
  54. }

Buffer Pool的读取逻辑和写入逻辑是混合在一起的,InnoDB需要访问一个Page时,必须要通过Buffer Pool进行获取,主要需要以下几个步骤:

  1. 获取Page对应的Buffer Pool Instance
  2. 从对应的Buffer Pool Instance的Page_hash中查找是否存在该Page,如存在,直接返回该Page的地址,并可能需要修改LRU List中的数据
  3. 如果未能查找到,则需要读取数据文件,并从Free List中申请新的Page将其添加到LRU List中

其中未在Page_hash中找到Page,且mode不为BUF_GET_IF_IN_POOL时,需要调用buf0rea.cc::buf_read_page()区文件中读取Page。

  1. buf0rea.cc::buf_read_page(...)
  2. |->buf_read_page_low(...)
  3. |->buf_page_init_for_read(...) //初始化Page,实际会从Free List中获取空闲Page
  4. |->fil_io(...) //从文件中读取数据,并填充Page

至此,Buffer Pool的读写操作大致流程就分析完了,但细节性的页链表的访问,如LRU List和Flush List的管理和淘汰,以及关于随机预读和线性预读操作的部分,还需要分析一下。我们先从页链表的访问看起:

页链表的访问:

获取一个新的Page,并对其完成初始化工作,以便于后续的fil_io(…)将从数据文件中读取到的数据填充到该Page,其中会涉及到从Free List中获取空闲Page,如果无空闲Page则需要对LRU List和Flush List进行淘汰操作,我们先从buf_page_init_for_read(…)函数看起:

  1. buf_page_init_for_read(){
  2. ...
  3. //核心函数,用于获取一个空闲的Page,其中可能会触发LRU List和Flush List的淘汰
  4. block = buf_LRU_get_free_block(buf_pool);
  5. //LRU_list_mutex进入互斥状态
  6. mutex_enter(&buf_pool->LRU_list_mutex);
  7. //初始化Page
  8. buf_page_init(buf_pool, page_id, page_size, block);
  9. //加入至LRU List中
  10. buf_LRU_add_block(bpage, TRUE /* to old blocks */);
  11. //LRU_list_mutex退出互斥状态
  12. mutex_exit(&buf_pool->LRU_list_mutex);
  13. ...
  14. return (bpage);
  15. }

当Buffer Pool Instance去获取一个空闲Page时,大多数情况下都会直接从Free List中获取一个空闲Page直接返回,除非Free List是空的,则需要去进行回收LRU List和Flush List中的Page,在进行查找和回收Page时,在buf_LRU_get_free_block()函数中,定义了一个n_iterations,这个参数用于标识是第几次进行迭代获取空闲Page,当第一次来获取Page时,n_iterations为0,总共分为三种情况作处理,具体如下:

  • n_iterations = 0:

    1. 直接调用buf_LRU_get_free_only()函数从Free List中获取Page;
    2. 如果未Free List中获取到空闲Page,且try_LRU_scan设置为True,则开始扫描LRU List尾部的BUF_LRU_SEARCH_SCAN_THRESHOLD(默认为100)数量个Page,找到一个可以被回收的Page(即没有事务在使用这个Page),调用buf_LRU_free_page()函数回收Page,并将其加入到Free List中,然后再调用buf_LRU_get_free_only()函数从Free List中获取Page;
    3. 如果在上一步操作中还是未找到空闲Page,则尝试从LRU List的尾部Flush一个Page到数据文件中,调用buf_flush_single_page_from_LRU()来完成对Page的Flush,并将其加入到Free List中,然后再调用buf_LRU_get_free_only()函数从Free List中获取Page;
    4. 如果还是未找到空闲Page,则将n_iterations++,并重复1-3的步骤从最开始继续循环获取Page。
  • n_iterations > 1:

    此时和n_iterations = 1流程完全一致,只是会在在flush之前每次sleep 10ms。如果还是找不到空闲Page,则继续将n_iterations++,并重复n_iterations = 0中1-3的步骤从最开始继续循环获取Page。

    当n_iterations > 20时,会打印一条频繁获取不到空闲Page的log。