记一次 .NET 某游戏服务后端 内存暴涨分析

一次,net,游戏,服务,后端,内存,暴涨,分析 · 浏览次数 : 1335

小编点评

**代码分析** * List 无根的情况下如何快速找到 List 所属的代码块? * 在 List 无根的情况下如何快速找到 List 所属的代码块? * 如何才能在 List 无根的情况下快速找到 List 所属的代码块? **问题解答** * List 无根的情况下如何快速找到 List 所属的代码块? * 在 List 无根的情况下如何快速找到 List 所属的代码块? * 如何才能在 List 无根的情况下快速找到 List 所属的代码块? **截图** * List 无根的情况下如何快速找到 List 所属的代码块? * 在 List 无根的情况下如何快速找到 List 所属的代码块? * 如何才能在 List 无根的情况下快速找到 List 所属的代码块? **结论** * 核心点就是这里的 num++,在某些情况下会导致在 for 中出不来继而不断的 List.Add ,最终导致问题的发生。 * 在 List 无根的情况下如何快速找到 List 所属的代码块?

正文

一:背景

1. 讲故事

前几天有位朋友找到我,说他们公司的后端服务内存暴涨,而且CPU的一个核也被打满,让我帮忙看下怎么回事,一般来说内存暴涨的问题都比较好解决,就让朋友抓一个 dump 丢过来,接下来我们用 WinDbg 一探究竟。

二:WinDbg 分析

1. 到底是谁在暴涨

拿到 dump 之后,首先要判断是托管还是非托管问题,这决定了我们后续的探究方向,我们直接用 !address -summary + !dumpheap -stat 即可。


0:000> !address -summary

--- State Summary ---------------- RgnCount ----------- Total Size -------- %ofBusy %ofTotal
MEM_FREE                                212     7dfe`fb4e7000 ( 125.996 TB)           98.43%
MEM_RESERVE                             368      200`1dbd6000 (   2.000 TB)  99.82%    1.56%
MEM_COMMIT                             1741        0`e6f33000 (   3.609 GB)   0.18%    0.00%

0:000> !dumpheap -stat
Statistics:
              MT    Count    TotalSize Class Name
...
7ff9858ad8e0   409,869   258,383,328 System.Collections.Generic.Dictionary<System.Int64, xxx.xxx>+Entry[]
0225cc98e1f0   283,654   479,330,568 Free
7ff9858ab160         8 2,147,484,480 xxx.xxxUnit[]

0:000> !dumpheap -mt 7ff9858ab160
         Address               MT           Size
    022585dd26b8     7ff9858ab160             24 
    02258beb3c78     7ff9858ab160             24 
    02259f272aa8     7ff9858ab160            152 
    0225a8ae0858     7ff9858ab160            152 
    0225a8d015c8     7ff9858ab160            152 
    0225a91da130     7ff9858ab160            152 
    0225a9395ad0     7ff9858ab160            152 
    022694c91020     7ff9858ab160  2,147,483,672 

Statistics:
          MT Count     TotalSize Class Name
7ff9858ab160     8 2,147,484,480 xxx.xxxUnit[]
Total 8 objects, 2,147,484,480 bytes

从卦象看,3.6G 的提交内存,xxx.xxxUnit[] 就占用了 2.1G,可以确定当前是托管内存暴涨,并且也看到了内存都被 022694c91020 这个对象给吃掉了,接下来就是看下这个对象到底被谁持有着? 使用 !gcroot 即可。


0:000> !gcroot 022694c91020  
Caching GC roots, this may take a while.
Subsequent runs of this command will be faster.

Found 0 unique roots.

我去,从卦中看当前的 022694c91020 没有引用根,也就表明这个对象应该会在后续过程中被回收,但这里有一个问题,这个 xxx.xxxUnit[] 到底定义在代码何处呢? 知道在何处,就可以完美的解决问题。

2. 数组到底定义在何处

可以仔细想一想,xxx.xxxUnit[] 没有被 GC 回收,从侧面也表明它可能刚分配不久,并且是一个局部变量,既然是局部变量,就可以反向找到是哪一个线程分配的,如果线程栈还残留着 返回地址 信息,就可以反推出是哪一个方法,有了这个思路,接下来就可以动手挖了。

按照编码人的习惯, xxx.xxxUnit[] 肯定是某一个 List<xxxUnit> 集合,可以用内存搜索解决。


0:000> s-q 0 L?0xffffffffffffffff 022694c91020
00000225`a89530a0  00000226`94c91020 0cca3690`0cca3690

0:000> !lno 00000225`a89530a0
Before:  00000225a8953098           32 (0x20)	System.Collections.Generic.List`1[[xxx.xxxUnit, xx.xx]]
After:   00000225a89530b8         1224 (0x4c8)	Free
Heap local consistency confirmed.

从卦中看,果然用的是一个 List<xxx.xxxUnit> 集合,万事开头难,接下来继续反向搜索,如果线程栈还有残留的话,就可以找到它所属的线程栈。


0:000> s-q 0 L?0xffffffffffffffff 00000225a8953098
0000004c`417ecd98  00000225`a8953098 00000005`00000000
0000004c`417eceb8  00000225`a8953098 0cca3695`00000000
00000225`f1070180  00000225`a8953098 00000225`d7d287f8
00000225`f10701e0  00000225`a8953098 00000225`d7d287f8

0:000> !address 0000004c`417ecd98

Usage:                  Stack
Base Address:           0000004c`417d1000
End Address:            0000004c`417f0000
Region Size:            00000000`0001f000 ( 124.000 kB)
State:                  00001000          MEM_COMMIT
Protect:                00000004          PAGE_READWRITE
Type:                   00020000          MEM_PRIVATE
Allocation Base:        0000004c`41670000
Allocation Protect:     00000004          PAGE_READWRITE
More info:              ~0k


Content source: 1 (target), length: 3268

从卦中的 More info: 信息来看,它是属于 0 号线程,如果你不相信的话,可以拿 417d1000 去内存段验证下,输出如下:


0:000> !address -f:Stack

        BaseAddress      EndAddress+1        RegionSize     Type       State                 Protect             Usage
--------------------------------------------------------------------------------------------------------------------------
      4c`41670000       4c`417cc000        0`0015c000 MEM_PRIVATE MEM_RESERVE                                    Stack      [~0; ec8.1584]
      4c`417cc000       4c`417d1000        0`00005000 MEM_PRIVATE MEM_COMMIT  PAGE_READWRITE | PAGE_GUARD        Stack      [~0; ec8.1584]
      4c`417d1000       4c`417f0000        0`0001f000 MEM_PRIVATE MEM_COMMIT  PAGE_READWRITE                     Stack      [~0; ec8.1584]

既然找到了是 0 号线程,接下来可以用 !clrstack 观察下,奇怪的是 0 号线程啥都没有,我怀疑这个 dump 抓的有问题,可以截图为证。

看不到任何线程栈信息,这就难搞了,接下来的路在何方呢?

3. 还有希望吗

作为调试人,一定要在绝望中寻找希望,突破口就是考验线程栈布局的理解,可以在栈上往小地址找,会找到子函数的返回地址(returnAddress),即类似的格式: 0x00007ffxxxxxx,这个地址和 List<xxx.xxxUnit> 都同属一个方法,如果不清楚的话画个简图如下:

如图中所述找到 子方法 ReturnAddress 地址值即可,接下来使用windbg 的 dqs 命令外加 !ip2md 观察方法名即可。


0:000> dqs 0000004c`417ecd98 L-50
0000004c`417ecb18  0000004c`417ed678
0000004c`417ecb20  00000225`b9e78518
0000004c`417ecb28  00007ff9`85f3f861
0000004c`417ecb30  00000225`ba22b8c0
0000004c`417ecb38  0000001a`00000027
0000004c`417ecb40  00000225`00000027
0000004c`417ecb48  00000225`84aef0f8
...
0000004c`417ecd88  0000001a`00000000
0000004c`417ecd90  00000225`82278a68

0:000> !ip2md 00007ff9`85f3f861
MethodDesc:   00007ff983ef1af0
Method Name:          xxx.xxx.xxxRange(xxx,xxx,xxx,xxx)
Class:                00007ff983ef1a58
MethodTable:          00007ff983ef1b70
mdToken:              0000000006000A47
Module:               00007ff983d9c060
IsJitted:             yes
Current CodeAddr:     00007ff985f3f160
Version History:
  ILCodeVersion:      0000000000000000
  ReJIT ID:           0
  IL Addr:            00000225ef226c48
     CodeAddr:           00007ff985f3f160  (MinOptJitted)
     NativeCodeVersion:  0000000000000000

在卦中获取到这些信息之后,接下来看下 xxx.xxx.xxxRange 中是否有 List<xxxUnit> 集合,为什么高达 2个G,经过仔细研读代码,终于发现了问题,截图如下:

从图中看,核心点就是这里的 num++,在某些情况下会导致在 for 中出不来继而不断的 List.Add ,最终导致问题的发生。

再回头结合朋友说的内存暴涨,伴随一个 CPU 核心被打满,完全就可以解释了。

三:总结

这是一个比较隐晦的逻辑bug导致的内存暴涨,如果仅仅从代码层面去分析,相信你可能要花费好久的时间,从高级调试的角度看,在 List 无根的情况下如何快速的找到 List 所属的代码块,也是对基础知识的一个考验。
图片名称

与记一次 .NET 某游戏服务后端 内存暴涨分析相似的内容:

记一次 .NET 某游戏服务后端 内存暴涨分析

## 一:背景 ### 1. 讲故事 前几天有位朋友找到我,说他们公司的后端服务内存暴涨,而且CPU的一个核也被打满,让我帮忙看下怎么回事,一般来说内存暴涨的问题都比较好解决,就让朋友抓一个 dump 丢过来,接下来我们用 WinDbg 一探究竟。 ## 二:WinDbg 分析 ### 1. 到底是

记一次 .NET 某游戏网站 CPU爆高分析

一:背景 1. 讲故事 这段时间经常有朋友微信上问我这个真实案例分析连载怎么不往下续了,关注我的朋友应该知道,我近二个月在研究 SQLSERVER,也写了十多篇文章,为什么要研究这东西呢? 是因为在 dump 中发现有不少的问题是 SQLSERVER 端产生的,比如:遗留事务,索引缺失 ,这让我产生

记一次 .NET某账本软件 非托管泄露分析

一:背景 1. 讲故事 中秋国庆长假结束,哈哈,在老家拍了很多的短视频,有兴趣的可以上B站观看:https://space.bilibili.com/409524162 ,今天继续给大家分享各种奇奇怪怪的.NET生产事故,希望能帮助大家在未来的编程之路上少踩坑。 话不多说,这篇看一个.NET程序集泄

记一次 .NET 某拍摄监控软件 卡死分析

一:背景 1. 讲故事 今天本来想写一篇 非托管泄露 的生产事故分析,但想着昨天就上了一篇非托管文章,连着写也没什么意思,换个口味吧,刚好前些天有位朋友也找到我,说他们的拍摄监控软件卡死了,让我帮忙分析下为什么会卡死,听到这种软件,让我不禁想起了前些天 在程序员桌子上安装监控 的新闻,参考如下: 我

记一次 .NET某新能源MES系统 非托管泄露

一:背景 1. 讲故事 前些天有位朋友找到我,说他们的程序有内存泄露,跟着我的错题集也没找出是什么原因,刚好手头上有一个 7G+ 的 dump,让我帮忙看下是怎么回事,既然找到我了那就给他看看吧,不过他的微信头像有点像 二道贩子,不管到我这里是不是 三道,该分析的还得要分析呀。😄😄😄 二:Wi

记一次 .NET 某仪器测量系统 CPU爆高分析

一:背景 1. 讲故事 最近也挺奇怪,看到了两起 CPU 爆高的案例,且诱因也是一致的,觉得有一些代表性,合并分享出来帮助大家来避坑吧,闲话不多说,直接上 windbg 分析。 二:WinDbg 分析 1. CPU 真的爆高吗 这里要提醒一下,别人说爆高不一定真的就是爆高,我们一定要拿数据说话,可以

记一次 .NET 某企业OA后端服务 卡死分析

一:背景 1.讲故事 前段时间有位朋友微信找到我,说他生产机器上的 Console 服务看起来像是卡死了,也不生成日志,对方也收不到我的httpclient请求,不知道程序出现什么情况了,特来寻求帮助。 哈哈,一般来说卡死的情况在窗体程序(WinForm,WPF) 上特别多,在 Console,We

记一次 .NET 某娱乐聊天流平台 CPU 爆高分析

一:背景 1.讲故事 前段时间有位朋友加微信,说他的程序直接 CPU=100%,每次只能手工介入重启,让我帮忙看下到底怎么回事,哈哈,这种CPU打满的事故,程序员压力会非常大, 我让朋友在 CPU 高的时候抓 2 个 dump 下来,然后发给我分析。 二:WinDbg 分析 1. CPU 真的被打满

记一次 .NET 某医疗器械 程序崩溃分析

一:背景 1.讲故事 前段时间有位朋友在微信上找到我,说他的程序偶发性崩溃,让我帮忙看下怎么回事,上面给的压力比较大,对于这种偶发性崩溃,比较好的办法就是利用 AEDebug 在程序崩溃的时候自动抽一管血出来,看看崩溃点是什么,其实我的系列文章中,关于崩溃类的dump比较少,刚好补一篇上来,话不多说

记一次.NET某工控图片上传CPU爆高分析

一:背景 1.讲故事 今天给大家带来一个入门级的 CPU 爆高案例,前段时间有位朋友找到我,说他的程序间歇性的 CPU 爆高,不知道是啥情况,让我帮忙看下,既然找到我,那就用 WinDbg 看一下。 二:WinDbg 分析 1. CPU 真的爆高吗 其实我一直都在强调,要相信数据,口说无凭,一定要亲