服务器之家:专注于服务器技术及软件下载分享
分类导航

Linux|Centos|Ubuntu|系统进程|Fedora|注册表|Bios|Solaris|Windows7|Windows10|

服务器之家 - 服务器系统 - Linux - Linux Glibc 内存站岗问题及解决方法

Linux Glibc 内存站岗问题及解决方法

2021-06-17 23:08Linux阅码场刘冬云 Linux

对于嵌入式设备来说,用户态内存管理是一项基础功能,目前主流的用户态内存管理库有glibc、uclibc、tcmalloc、jemalloc等。

Linux Glibc 内存站岗问题及解决方法

0引言

 

对于嵌入式设备来说,用户态内存管理是一项基础功能,目前主流的用户态内存管理库有glibc、uclibc、tcmalloc、jemalloc等。

本文基于glibc2.17版本进行分析,围绕glibc内存分配原理、内存站岗问题形成原因展开讨论,并对glibc缓存大量内存(高达几十个 G甚至上百 G)且不释放的问题给出一种解决方案。

笔者遇到的问题是基于glibc进行内存管理的64 位Linux系统。具体现象如下:设备32G物理内存,在大规格打流情况下,某用户进程占用的物理内存暴涨至20G左右。

在停止打流后,观察到业务模块已经释放了绝大部分内存,但是进程占用的物理内存依然达到16G左右,此后内存状况一直维持该状态,导致系统内存紧张,若叠加上其他业务则出现了OOM的现象,已排除该进程内存泄露的可能性。

1Glibc内存分配基本原理

 

Glibc使用了ptmalloc的内存管理方式,本文在描述时均使用glibc来称呼。Glibc申请内存时是从分配区申请的,分为主分配区和非主分配区,分配区都有锁,在分配内存前需要先获取锁,然后再去申请内存。

一般进程都是多线程的,当多个线程同时需要申请内存时,如果只有一个分配区,那么效率太低。

glibc为了支持多线程的内存申请释放,会在多个线程同时需要申请内存时根据cpu核数分配一定数量的分配区,将分配区分配给线程。如果线程数量较多,则会出现多个线程争用一个分配区的的情况,这里不展开。

内存申请基本原理:当用户调用malloc申请内存时,glibc会查看是否已经缓存了内存,如果有缓存则会优先使用缓存内存,返回一块符合用户请求大小的内存块。

如果没有缓存或者缓存不足则会去向操作系统申请内存(可通过brk、mmap申请内存),然后切一块内存给用户,如图1所示。

Linux Glibc 内存站岗问题及解决方法

图 1

内存释放基本原理:当业务模块使用完毕后调用free释放内存时,glibc会检查该内存块虚拟地址上下内存块的使用状态(fast bin除外)。若其上一块内存空闲,则与上一块内存进行合并。若下一块内存空闲,则与下一块内存进行合并。如图2所示。

若下一块内存时top chunk(top chunk一直是空闲的),则看top chunk的大小是否超过一个阈值,如果超过一个阈值则将其释放给OS,如图3所示。

Linux Glibc 内存站岗问题及解决方法

图2

Linux Glibc 内存站岗问题及解决方法

图3

2Glibc内存站岗及其原因

 

内存站岗概念:

内存站岗指的是glibc从OS申请到内存后分配给业务模块,业务模块使用完毕后释放了内存,但是glibc没有将这些空闲内存释放给OS,也就是缓存了很多空闲内存无法归还给系统的现象。

内存站岗原因:

glibc设计时就确定其内存是用于短生命周期的,因此在设计上内存释放给OS的时机是当top chunk的大小超过一个阈值时会释放top chunk的一部分内存给OS。当top chunk不超过阈值就不会释放内存给OS。

那么问题来了,若与top chunk相邻的内存块一直在使用中,那么top chunk就永远也不会超过阈值,即便业务模块释放了大量内存,达到几十个G 或者上百个G,glibc也是无法将内存还给OS的。

对于glibc来说,其有主分配和非主分配区的概念。主分配通过sbrk来增加分配区的内存大小,而非主分配区则是通过一个或多个mmap出来的内存块用链表链接起来模拟主分配区的。为了更清晰的解释内存站岗,下面举个例子来说明主分配区的内存站岗,如图4所示。

Linux Glibc 内存站岗问题及解决方法

图4

如上有(a) (c) (e) (g)内存块正在使用,故而导致了空闲内存(b) (d) (f)无法和top chunk连成一块更大的空闲内存块,glibc的阈值(64位系统默认是128K),尽管目前空闲内存有将近130M,也无法还给OS。

接下来看非主分配区的内存站岗,如图 5 所示,实际的非主分配区可能有很多个heap,这里假设只有4个heap。

Linux Glibc 内存站岗问题及解决方法

图5

在定位过程中,笔者与同事讨论过多次如何解决站岗。在一次讨论过程中由邓竑杰提出降低heap的size(类似于tcmalloc的做法),虽然实测后发现完全没有效果,但是为后续解决问题起到了启示作用。

后面笔者在走读代码时发现这是glibc原生机制,同时笔者在查看内存布局时观察到非主分配区大量heap均为free状态。原有机制是先释放heap3,如果heap3有内存在使用,尽管heap0、heap1、heap2的内存都释放了,那也是无法释放给系统。

glibc有多个分配区,每个分配区都几百 M 空闲内存的话,则整个进程占用达到几十个G也就不奇怪了。

3Glibc内存站岗解决方法及patch

 

在内存释放时,对于主分配区和非主分配其走的流程是不一样的,我们64位系统的进程内存模型为经典模式,栈是从高地址向低地址生长的。

对于主分配区的内存站岗我还没有遇到过,若主分配区内存站岗,一种方法是可以尝试madvise将主分配区的pagesize对齐的空闲内存进行释放,但是这样效果可能不太明显。

另外一种是通过创建线程,然后将主线程的业务移到新线程即可,这样主分配区就不会造成站岗了,而将站岗转移到了非主配区,而非主分配区则是我们接下来要进行优化的主战场。

针对非主分配区进行两处优化:

a) heap0,heap1,heap2是空闲的,那么我们就可以将heap1,heap2释放掉;

b) heap默认是64M,降低每个heap的size(笔者测试时设置为512K)。

Linux Glibc 内存站岗问题及解决方法

图 6

这里需要特别解释一下为什么不释放heap0和最后一个heap3,heap0的组成如图7所示。图左边是第一个heap即heap0,图右边是最后一个heap即heap3。

从图中可以清晰的看到如若释放掉heap0那么会将struct malloc_state结构体释放,会造成进程崩溃。右边这个由于有在用的内存,也不能释放掉。当然如果heap3的内存全部被释放了,则由glibc原生代码进行了处理,patch不再处理。

Linux Glibc 内存站岗问题及解决方法

图 7

经过修改glibc源码,优化其释放机制,实际打流测试。

在打流到峰值后,进程使用了20G的内存,在停止打流后数秒内便恢复到了打流前的内存水平,进程所占用的内存基本还给系统了。至此,glibc内存站岗问题得到解决。

以上我们介绍了如何解决内存站岗的原理,纸上得来终觉浅,现在我们看patch源码实现。

目前笔者已经将该优化的patch提交到开源社区审核,提交到社区的patch未对heap的size进行修改,这是因为想要谨慎一些,毕竟开源的代码使用场景较多,如有需要可自行决定heap的size。

Patch基于glibc2.17代码

  1. 1. Index: arena.c 
  2. 2. =================================================================== 
  3. 3. --- arena.c (revision 2) 
  4. 4. +++ arena.c (working copy) 
  5. 5. @@ -652,7 +652,7 @@ 
  6. 6. 
  7. 7. static int 
  8. 8. internal_function 
  9. 9. -heap_trim(heap_info *heap, size_t pad) 
  10. 10. +heap_trim(heap_info *heap, heap_info* free_heap, size_t pad) 
  11. 11. { 
  12. 12. mstate ar_ptr = heap->ar_ptr; 
  13. 13. unsigned long pagesz = GLRO(dl_pagesize); 
  14. 14. @@ -659,7 +659,29 @@ 
  15. 15. mchunkptr top_chunk = top(ar_ptr), p, bck, fwd; 
  16. 16. heap_info *prev_heap; 
  17. 17. long new_size, top_size, extra, prev_size, misalign; 
  18. 18. + heap_info *last_heap; 
  19. 19. 
  20. 20. + /*Release heap if possible*/ 
  21. 21. + last_heap = heap_for_ptr(top_chunk); 
  22. 22. + if ((NULL != free_heap->prev) && (last_heap != free_heap)){ 
  23. 23. + p = chunk_at_offset(free_heap, sizeof(*free_heap)); 
  24. 24. + if (!inuse(p)){ 
  25. 25. + if (chunksize(p)+sizeof(*free_heap)+MINSIZE==free_heap->size){ 
  26. 26. + while (last_heap){ 
  27. 27. + if (last_heap->prev == free_heap){ 
  28. 28. + last_heap->prev == free_heap->prev; 
  29. 29. + break; 
  30. 30. + } 
  31. 31. + last_heap = last_heap->prev; 
  32. 32. + } 
  33. 33. + ar_ptr->system_mem -= free_heap->size
  34. 34. + arena_mem -= free_heap->size
  35. 35. + unlink(p, bck, fwd); 
  36. 36. + delete_heap(free_heap); 
  37. 37. + return 1; 
  38. 38. + } 
  39. 39. + } 
  40. 40. + } 
  41. 41. /* Can this heap go away completely? */ 
  42. 42. while(top_chunk == chunk_at_offset(heap, sizeof(*heap))) { 
  43. 43. prev_heap = heap->prev; 
  44. 44. Index: malloc.c 
  45. 45. =================================================================== 
  46. 46. --- malloc.c (revision 2) 
  47. 47. +++ malloc.c (working copy) 
  48. 48. @@ -915,7 +915,7 @@ 
  49. 49. # if __WORDSIZE == 32 
  50. 50. # define DEFAULT_MMAP_THRESHOLD_MAX (512 * 1024) 
  51. 51. # else 
  52. 52. - 
  53. # define DEFAULT_MMAP_THRESHOLD_MAX (4 * 1024 * 1024 * sizeof(long)) 
  54. 53. +# define DEFAULT_MMAP_THRESHOLD_MAX (256 * 1024) 
  55. 54. # endif 
  56. 55. #endif 
  57. 56. 
  58. 57. @@ -3984,7 +3984,7 @@ 
  59. 58. heap_info *heap = heap_for_ptr(top(av)); 
  60. 59. 
  61. 60. assert(heap->ar_ptr == av); 
  62. 61. - heap_trim(heap, mp_.top_pad); 
  63. 62. + heap_trim(heap, heap_for_ptr(p), mp_.top_pad); 
  64. 63. } 
  65. 64. } 

结束语

 

不同的内存管理方式均有其优势和缺陷,由于工作需要,笔者有幸研究过glibc、tcmalloc、uclibc内存管理,本文讨论了glibc内存管理存在的一个共性问题,并给出可行的解决方案。

对于内存站岗问题,一般的做法是用户自己缓存一些长时间不释放的内存。另一种是干脆将glibc替换为tcmalloc。因为 tcmalloc 的 span比较小,所以站岗发生的概率极低,即便发生也就站岗一个span的大小。若由于某些原因不能用tcmalloc代替glibc的场景,如上的解决思路可以尝试一下,该问题也困扰我们多时了,花费了较长时间和较多精力去定位。

在glibc2.28的版本中,glibc有了tcache的特性,对于业务进程使用大量小内存的场景则更加容易出现内存站岗问题。在撰写本文时查看了glibc2.33版本,开源社区还未对该问题进行修改(或许是开源社区大神认为这不是glibc的问题,而是用户不释放内存)。

原文链接:https://mp.weixin.qq.com/s/CcLabnMzy8g3Ijq_Z4p_dg

延伸 · 阅读

精彩推荐