[转帖]频繁分配释放内存导致的性能问题的分析

频繁,分配,释放,内存,导致,性能,问题,分析 · 浏览次数 : 0

小编点评

**进程内存分配的原理** **malloc**函数用于分配内存空间,**mmap**函数用于分配与进程虚拟地址空间的内存空间。 **内存分配的步骤** 1. **申请内存空间**:使用**malloc**函数申请固定大小的内存空间。 2. **分配内存空间**:使用**mmap**函数将申请到的内存空间分配给进程虚拟地址空间。 3. **释放内存空间**:使用**free**函数释放所申请的内存空间。 **禁止malloc调用mmap分配内存** 为了防止内存泄漏,**malloc**函数不能调用**mmap**函数分配内存空间。 **内存紧缩** **trim**函数用于调整进程中的内存分配状态,**如果**内存大小超过了预期值,**trim**函数会减少内存分配。 **一些内存分配的技巧** * 使用**mallocpt**分配内存,可以指定内存大小。 * 使用**mmap**分配内存时,可以设置大小。 * 使用**free**释放内存时,可以使用**munmap**函数进行清理。 * 在进程启动时,加入**mallopt**和**trim**函数,可以优化内存分配。 **结论** 进程内存分配的原理涉及多个步骤,**malloc**函数用于分配内存空间,**mmap**函数用于分配与进程虚拟地址空间的内存空间。**禁止malloc调用mmap分配内存**,为了防止内存泄漏。**一些内存分配的技巧可以优化内存分配效率。

正文

https://cloud.tencent.com/developer/article/1420726

 

现象

1 压力测试过程中,发现被测对象性能不够理想,具体表现为: 进程的系统态CPU消耗20,用户态CPU消耗10,系统idle大约70 2 用ps -o majflt,minflt -C program命令查看(pidstat也可以),

发现majflt每秒增量为0,而minflt每秒增量大于10000。

初步分析

majflt代表major fault,中文名叫大错误,minflt代表minor fault,中文名叫小错误。 这两个数值表示一个进程自启动以来所发生的缺页中断的次数。

当一个进程发生缺页中断的时候,进程会陷入内核态,执行以下操作: 1 检查要访问的虚拟地址是否合法 2 查找/分配一个物理页 3 填充物理页内容(读取磁盘,或者直接置0,或者啥也不干) 4 建立映射关系(虚拟地址到物理地址) 5 重新执行发生缺页中断的那条指令 如果第3步,需要读取磁盘,那么这次缺页中断就是majflt,否则就是minflt。 此进程minflt如此之高,一秒10000多次,不得不怀疑它跟进程内核态cpu消耗大有很大关系。

分析代码

查看代码,发现是这么写的:一个请求来,用malloc分配2M内存,请求结束后free这块内存。看日志,发现分配内存语句耗时10us,平均一条请求处理耗时1000us 。 原因已找到! 虽然分配内存语句的耗时在一条处理请求中耗时比重不大,但是这条语句严重影响了性能。要解释清楚原因,需要先了解一下内存分配的原理。

测试:

  1. 循环new分配64K * 2048的内存空间,写入脏数据后,循环调用delete释放。top看进程依然使用131M内存,没有释放。 —— 此时用brk
  2. 循环new分配128K * 2048的内存空间,写入脏数据后,循环调用delete释放。top看进程使用,2960字节内存,完全释放。 —— 此时用mmap
  3. 设置M_MMAP_THRESHOLD 256k,循环new分配128k * 2048 的内存空间,写入脏数据后,循环调用delete释放,而后调用malloc_trim(0)。top看进程使用,2348字节,完全释放。 ——此时用brk

内存分配的原理

从操作系统角度来看,进程分配内存有两种方式,分别由两个系统调用完成:brk和mmap(不考虑共享内存)。brk是将数据段(.data)的最高地址指针_edata往高地址推,mmap是在进程的虚拟地址空间中(一般是堆和栈中间)找一块空闲的。这两种方式分配的都是虚拟内存,没有分配物理内存。在第一次访问已分配的虚拟地址空间的时候,发生缺页中断,操作系统负责分配物理内存,然后建立虚拟内存和物理内存之间的映射关系。 在标准C库中,提供了malloc/free函数分配释放内存,这两个函数底层是由brk,mmap,munmap这些系统调用实现的。 下面以一个例子来说明内存分配的原理:

1.进程启动的时候,其(虚拟)内存空间的初始布局如图1所示。其中,mmap内存映射文件是在堆和栈的中间(例如libc-2.2.93.so,其它数据文件等),为了简单起见,省略了内存映射文件。_edata指针(glibc里面定义)指向数据段的最高地址。

2.进程调用A=malloc(30K)以后,内存空间如图2:malloc函数会调用brk系统调用,将_edata指针往高地址推30K,就完成虚拟内存分配。你可能会问:只要把_edata+30K就完成内存分配了?事实是这样的,_edata+30K只是完成虚拟地址的分配,A这块内存现在还是没有物理页与之对应的,等到进程第一次读写A这块内存的时候,发生缺页中断,这个时候,内核才分配A这块内存对应的物理页。

也就是说,如果用malloc分配了A这块内容,然后从来不访问它,那么,A对应的物理页是不会被分配的。

3.进程调用B=malloc(40K)以后,内存空间如图3.

4 进程调用C=malloc(200K)以后,内存空间如v:默认情况下,malloc函数分配内存,如果请求内存大于128K(可由M_MMAP_THRESHOLD选项调节),那就不是去推_edata指针了,而是利用mmap系统调用,从堆和栈的中间分配一块虚拟内存。这样子做主要是因为brk分配的内存需要等到高地址内存释放以后才能释放(例如,在B释放之前,A是不可能释放的),而mmap分配的内存可以单独释放。当然,还有其它的好处,也有坏处,再具体下去,有兴趣的同学可以去看glibc里面malloc的代码了。

5进程调用D=malloc(100K)以后,内存空间如图5.

6 进程调用free(C)以后,C对应的虚拟内存和物理内存一起释放 图6

7 进程调用free(B)以后,

如图7所示。B对应的虚拟内存和物理内存都没有释放,因为只有一个_edata指针,如果往回推,那么D这块内存怎么办呢?当然,B这块内存,是可以重用的,如果这个时候再来一个40K的请求,那么malloc很可能就把B这块内存返回回去了。

8进程调用free(D)以后,如图8所示。B和D连接起来,变成一块140K的空闲内存。 9默认情况下:当最高地址空间的空闲内存超过128K(可由M_TRIM_THRESHOLD选项调节)时,执行内存紧缩操作(trim)。在上一个步骤free的时候,发现最高地址空闲内存超过128K,于是内存紧缩,变成图9所示。 真相大白

说完内存分配的原理,那么被测模块在内核态cpu消耗高的原因就很清楚了:每次请求来都malloc一块2M(大于128k)的内存,默认情况下,malloc调用mmap分配内存,请求结束的时候,调用munmap释放内存。假设每个请求需要6个物理页,那么每个请求就会产生6个缺页中断,

在2000的压力下,每秒就产生了10000多次缺页中断,这些缺页中断不需要读取磁盘解决,所以叫做minflt;缺页中断在内核态执行,因此进程的内核态cpu消耗很大。缺页中断分散在整个请求的处理过程中,所以表现为分配语句耗时(10us)相对于整条请求的处理时间(1000us)比重很小。 解决办法

将动态内存改为静态分配,或者启动的时候,用malloc为每个线程分配,然后保存在threaddata里面。但是,由于这个模块的特殊性,静态分配,或者启动时候分配都不可行。另外,Linux下默认栈的大小限制是10M,如果在栈上分配几M的内存,有风险。

禁止malloc调用mmap分配内存,禁止内存紧缩。 在进程启动时候,加入以下两行代码: mallopt(M_MMAP_MAX, 0); // 禁止malloc调用mmap分配内存 mallopt(M_TRIM_THRESHOLD, -1); // 禁止内存紧缩

效果:加入这两行代码以后,用ps命令观察,压力稳定以后,majlt和minflt都为0。进程的系统态cpu从20降到10。 小结

可以用命令ps -o majflt minflt -C program来查看进程的majflt, minflt的值,这两个值都是累加值,从进程启动开始累加。在对高性能要求的程序做压力测试的时候,我们可以多关注一下这两个值。

如果一个进程使用了mmap将很大的数据文件映射到进程的虚拟地址空间,我们需要重点关注majflt的值,因为相比minflt,majflt对于性能的损害是致命的,随机读一次磁盘的耗时数量级在几个毫秒,而minflt只有在大量的时候才会对性能产生影响。

glibc 大内存是128k

tcmalloc是Google开源的一个内存管理库,

小对象(<=32K),大对象4k

jemalloc是facebook推出的

Small: [8], [16, 32, 48, …, 128], [192, 256, 320, …, 512], [768, 1024, 1280, …, 3840] Large: [4 KiB, 8 KiB, 12 KiB, …, 4072 KiB] Huge: [4 MiB, 8 MiB, 12 MiB, …]

来源:

https://cloud.tencent.com/developer/article/1138651

https://www.cnblogs.com/kongzhongqijing/articles/5147411.html

http://www.cnhalo.net/2016/06/13/memory-optimize/

https://blog.csdn.net/junlon2006/article/details/77854898

https://www.jianshu.com/p/f1988cc08dfd

http://tinylab.org/memory-allocation-mystery-%C2%B7-jemalloc-b/

与[转帖]频繁分配释放内存导致的性能问题的分析相似的内容:

[转帖]频繁分配释放内存导致的性能问题的分析

https://cloud.tencent.com/developer/article/1420726 现象 1 压力测试过程中,发现被测对象性能不够理想,具体表现为: 进程的系统态CPU消耗20,用户态CPU消耗10,系统idle大约70 2 用ps -o majflt,minflt -C pro

[转帖]性能-内存频繁分配

https://www.jianshu.com/p/599f132192f7 参考 本文主要摘抄自频繁分配释放内存导致的性能问题的分析 现象 压力测试过程中,发现被测对象性能不够理想,具体表现为:进程的系统态CPU消耗20,用户态CPU消耗10,系统idle大约70 用ps -o majflt,mi

[转帖]性能-内存频繁分配

https://www.jianshu.com/p/599f132192f7 参考 本文主要摘抄自频繁分配释放内存导致的性能问题的分析 现象 压力测试过程中,发现被测对象性能不够理想,具体表现为:进程的系统态CPU消耗20,用户态CPU消耗10,系统idle大约70 用ps -o majflt,mi

[转帖]性能优化:频繁分配和释放内存导致的问题

https://zhuanlan.zhihu.com/p/596366375 现象 1 压力测试过程中,发现被测对象性能不够理想,具体表现为: 进程的系统态CPU消耗20,用户态CPU消耗10,系统idle大约70。 2 用ps -o majflt,minflt -C program命令查看,发现m

[转帖]限制内核 udp bad checksum 失败告警信息

问题描述 某系统 dmesg 信息中有如下内容频繁打印,冲掉了其它相关的信息,需要限制打印。 UDP: bad checksum. From 10.66.245.93:61525 to 255.255.255.255:137 ulen 58 相关代码 内核源码树中的文件名: net/ipv4/udp

[转帖] 拒绝蛮力,高效查看Linux日志文件!

https://www.cnblogs.com/codelogs/p/16410363.html 简介# 日常分析问题时,会频繁地查看分析日志,但如果蛮力去查看日志,耗时费力还不一定有效果,因此我总结了在Linux常用的一些日志查看技巧,提升日志阅读效率。 grep查找日志# 在我们查找某些异常日志

【转帖】sqlserver 在高并发的select,update,insert的时候出现死锁的解决办法

最近在使用过程中使用SqlServer的时候发现在高并发情况下,频繁更新和频繁查询引发死锁。通常我们知道如果两个事务同时对一个表进行插入或修改数据,会发生在请求对表的X锁时,已经被对方持有了。由于得不到锁,后面的Commit无法执行,这样双方开始死锁。但是select语句和update语句同时执行,

[转帖]中国网络光缆出口分布图

https://blog.51cto.com/u_343067/651951 中国网络光缆出口分布图 ‍‍‍由于我们的需要频繁的访问国际网络,查询和了解国外的相关信息,但是我们时常会出现莫名其妙的网络状况让人尴尬,无法访问或者太卡太慢等一系列问题。现在就让我们一起来了解下国内连往国际的海底光缆出口,

[转帖]TIME_WAIT连接过多解决办法

问题起因: 自己开发了一个服务器和客户端,通过短连接的方式来进行通讯,由于过于频繁的创建连接,导致系统连接数量被占用,不能及时释放。看了一下18888,当时吓到了。 现象: 1、外部机器不能正常连接SSH 2、内向外不能够正常的ping通过,域名也不能正常解析。 问题排查: 通过 netstat -

[转帖]Linux内核参数之nf_conntrack

https://www.jianshu.com/p/d2b28703e376 问题描述 近日线下测试环境的一个cloudstack计算节点上的虚拟机出现频繁的丢包情况,经过排查日志发现这个计算节点的包被丢弃,日志信息如下: Oct 29 16:18:14 a2 kernel: __ratelimit