记一次 .NET 某药材管理系统 卡死分析

一次,net,药材,管理系统,卡死,分析 · 浏览次数 : 2799

小编点评

**这次不稳定的事故可能由 SQLSERVER 层面导致的问题** **直观推测:** * SQLSERVER 层面可能存在锁等待问题,因为锁等待会阻塞进程,导致并发度降低。 * 在卡住的时候,查下锁相关的 DMV视图,是不是出现了锁等待? * 我们可以尝试加上 nolock 尝试一下,看看能不能缓解锁等待问题。 **证据挖取:** * 用 windbg 在 SQLSERVER 层面挖到锁相关的 DMV视图的锁等待相关数据。 * 可以记录卡住过程,查下锁相关的 DMV视图的锁等待相关数据。 * 我们可以尝试加上 nolock 尝试一下,看看能不能缓解锁等待问题。 **总结:** * 首先,需要确认 SQLSERVER 层面是否存在锁等待问题。 * 我们可以尝试在卡住的时候,查下锁相关的 DMV视图的锁等待相关数据。 * 我们可以尝试加上 nolock 尝试一下,看看能不能缓解锁等待问题。

正文

一:背景

1. 讲故事

前段时间有位朋友找到我,说他们在查询报表的时候发现程序的稳定性会受到影响,但服务器的内存,CPU都是正常的,让我帮忙看下怎么回事,问了下程序的稳定性指的是什么?指的是卡死,那既然是卡死,就抓一个卡死的dump吧。

二:Windbg 分析

1. 当前是什么程序

不同的程序类型分析卡死的思路是不一样的,如果是 WKS模式 可以看下主线程,如果是 SRV模式 就要看其他线程了,接下来用 !eeversion 验证下。


0:000> !eeversion
5.0.521.16609 free
5,0,521,16609 @Commit: 2f740adc1457e8a28c1c072993b66f515977eb51
Server mode with 16 gc heaps
SOS Version: 6.0.5.7301 retail build

从卦中看当前是 .NET5 写的 Web网站,那就需要看其他线程都在做什么了。

2. 不稳定因素在哪里

朋友前面也说了查询报表的时候导致程序不稳定,因为这个所以要找SQL查询的 ,大概率问题在数据库端,接下来使用 ~*e !clrstack 观察所有线程栈,输出如下:


OS Thread Id: 0x24e8 (60)
        Child SP               IP Call Site
000000C2E3BFC700 00007ffd72955d04 [InlinedCallFrame: 000000c2e3bfc700] Microsoft.Data.SqlClient.SNINativeMethodWrapper.SNIReadSyncOverAsync(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E3BFC700 00007ffce5e00264 [InlinedCallFrame: 000000c2e3bfc700] Microsoft.Data.SqlClient.SNINativeMethodWrapper.SNIReadSyncOverAsync(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E3BFC6D0 00007ffce5e00264 ILStubClass.IL_STUB_PInvoke(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E3BFC7A0 00007ffce7a3ca1f Microsoft.Data.SqlClient.TdsParserStateObjectNative.ReadSyncOverAsync(Int32, UInt32 ByRef)
000000C2E3BFC7F0 00007ffce7a3c72c Microsoft.Data.SqlClient.TdsParserStateObject.ReadSniSyncOverAsync()
000000C2E3BFC880 00007ffce7a3c60b Microsoft.Data.SqlClient.TdsParserStateObject.TryReadNetworkPacket()
000000C2E3BFC8C0 00007ffce7a3c53e Microsoft.Data.SqlClient.TdsParserStateObject.TryPrepareBuffer()
000000C2E3BFC900 00007ffce79de54e Microsoft.Data.SqlClient.TdsParserStateObject.TryReadByte(Byte ByRef)
000000C2E3BFC940 00007ffce5e06bce Microsoft.Data.SqlClient.TdsParser.TryRun(Microsoft.Data.SqlClient.RunBehavior, Microsoft.Data.SqlClient.SqlCommand, Microsoft.Data.SqlClient.SqlDataReader, Microsoft.Data.SqlClient.BulkCopySimpleResultSet, Microsoft.Data.SqlClient.TdsParserStateObject, Boolean ByRef)
000000C2E3BFCAE0 00007ffce5e38d51 Microsoft.Data.SqlClient.SqlDataReader.TryConsumeMetaData()
000000C2E3BFCB50 00007ffce7a94f77 Microsoft.Data.SqlClient.SqlDataReader.get_MetaData()
....

OS Thread Id: 0x854 (72)
        Child SP               IP Call Site
000000C2E66BBE70 00007ffd72955d04 [InlinedCallFrame: 000000c2e66bbe70] Microsoft.Data.SqlClient.SNINativeMethodWrapper.SNIReadSyncOverAsync(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E66BBE70 00007ffce5e00264 [InlinedCallFrame: 000000c2e66bbe70] Microsoft.Data.SqlClient.SNINativeMethodWrapper.SNIReadSyncOverAsync(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E66BBE40 00007ffce5e00264 ILStubClass.IL_STUB_PInvoke(Microsoft.Data.SqlClient.SNIHandle, IntPtr ByRef, Int32)
000000C2E66BBF10 00007ffce7a3ca1f Microsoft.Data.SqlClient.TdsParserStateObjectNative.ReadSyncOverAsync(Int32, UInt32 ByRef)
000000C2E66BBF60 00007ffce7a3c72c Microsoft.Data.SqlClient.TdsParserStateObject.ReadSniSyncOverAsync()
000000C2E66BBFF0 00007ffce7a3c60b Microsoft.Data.SqlClient.TdsParserStateObject.TryReadNetworkPacket()
000000C2E66BC030 00007ffce7a3c53e Microsoft.Data.SqlClient.TdsParserStateObject.TryPrepareBuffer()
000000C2E66BC070 00007ffce79de54e Microsoft.Data.SqlClient.TdsParserStateObject.TryReadByte(Byte ByRef)
000000C2E66BC0B0 00007ffce5e06bce Microsoft.Data.SqlClient.TdsParser.TryRun(Microsoft.Data.SqlClient.RunBehavior, Microsoft.Data.SqlClient.SqlCommand, Microsoft.Data.SqlClient.SqlDataReader, Microsoft.Data.SqlClient.BulkCopySimpleResultSet, Microsoft.Data.SqlClient.TdsParserStateObject, Boolean ByRef)
000000C2E66BC250 00007ffce5e38d51 Microsoft.Data.SqlClient.SqlDataReader.TryConsumeMetaData()
000000C2E66BC2C0 00007ffce7a94f77 Microsoft.Data.SqlClient.SqlDataReader.get_MetaData()
...

从卦中看当前有两个线程在请求SQLSERVER,并在等待返回结果,接下来问题就来了,既然说卡死肯定花费了不少时间,所以对当前是什么 SQL 产生了好奇,我们可以提取下 72 号线程的 SqlCommand 对象,看看是什么sql?


0:072> !dso
OS Thread Id: 0x854 (72)
RSP/REG          Object           Name
000000C2E66BBDC8 00000216eafe2520 Microsoft.Data.SqlClient.SqlCommand

0:072> !DumpObj /d 00000216eafe2520
Name:        Microsoft.Data.SqlClient.SqlCommand
00007ffce4027a90  400046d       18        System.String  0 instance 00000216eafe1a60 _commandText

然后 do 一下 _commandText 就可以了,去敏之后的SQL如下;


SELECT xxx
FROM [xxxxxx] AS [d]
LEFT JOIN [xxxDrugs] AS [n]
    ON [d].[DrugId] = [n].[xxx]
WHERE [d].[xxxId] = '4f1be71f-2edb-4a5c-87dc-9ab3b981cbca'

上面的sql也就一个简单的表关联,但我的职业敏感性告诉我,这条sql应该就是没加 nolock 导致在 SQLSERVER 层面一直获取不到 S 锁,获取不到 S 锁的原因应该就是 报表 间接导致很多的意向U和意向X在相关表上成了 U 和 X 锁。

3. 到底卡了多久

怀疑是 SQLSERVER 层面的问题后,接下来还要找证据验证一下,也就是当前这条SQL到底阻塞了多久? 那怎么在 Dump 中观察 SQL 的请求时间呢?这就需要考察你对 SQLConnection 类的理解了,其中有一个字段 SqlConnection._innerConnection._createTime._dateData 就记录了 SQL 的开始时间。


0:072> !DumpObj /d 00000216eaf85fa0
Name:        Microsoft.Data.SqlClient.SqlConnection
00007ffce61bb9f8  40004c6       90 ...onnectionInternal  0 instance 00000215cad017c0 _innerConnection

0:072> !DumpObj /d 00000215cad017c0
Name:        Microsoft.Data.SqlClient.SqlInternalConnectionTds
00007ffce42c7670  4000174       48      System.DateTime  1 instance 00000215cad01808 _createTime

0:072> !DumpVC /d 00007ffce42c7670 00000215cad01808
Name:        System.DateTime
Fields:
              MT    Field   Offset                 Type VT     Attr            Value Name
00007ffce3f6cf98  4000258        0        System.UInt64  1 instance 5249873640594058230 _dateData

卦中的 0n5249873640594058230 怎么转化为具体时间呢?这又是考验你的基础知识了,这个数的前两位bit记录的是 时区信息 ,比如本地还是UTC,参考代码如下:


        internal DateTime(long ticks, DateTimeKind kind, bool isAmbiguousDst)
        {
            if (ticks < 0 || ticks > 3155378975999999999L)
            {
                throw new ArgumentOutOfRangeException("ticks", SR.ArgumentOutOfRange_DateTimeBadTicks);
            }
            _dateData = (ulong)ticks | (isAmbiguousDst ? 13835058055282163712uL : 9223372036854775808uL);
        }

上面的两个超大十进制数转化为二进制即高位的 11 和 10 开头,也就是十六进制开头的 c 和 8 。


0:072> ? 0n13835058055282163712
Evaluate expression: -4611686018427387904 = c0000000`00000000

0:072> ? 0n9223372036854775808
Evaluate expression: -9223372036854775808 = 80000000`00000000

那怎么将 _dateData 转成 ticks 呢?在源码中也有说明,即抹掉二进制中的高二位。


        internal long InternalTicks => (long)(_dateData & 0x3FFFFFFFFFFFFFFFL);

有了这些前置基础,接下来就可以用 windbg 转换了。


0:072> ? 0n5249873640594058230 & 0x3FFFFFFFFFFFFFFF
Evaluate expression: 638187622166670326 = 08db4c42`d74babf6

0:072> .formats 08db4c42`d74babf6
Evaluate expression:
  Hex:     08db4c42`d74babf6
  Decimal: 638187622166670326
  Decimal (unsigned) : 638187622166670326
  Octal:   0043332304132722725766
  Binary:  00001000 11011011 01001100 01000010 11010111 01001011 10101011 11110110
  Chars:   ..LB.K..
  Time:    Thu May  4 09:56:56.667 3623 (UTC + 8:00)
  Float:   low -2.23939e+014 high 1.31985e-033
  Double:  5.29119e-266

0:072> .time
Debug session time: Thu May  4 09:58:39.000 2023 (UTC + 8:00)
System Uptime: 40 days 10:15:42.713
Process Uptime: 0 days 16:55:48.000
  Kernel time: 0 days 0:01:54.000
  User time: 0 days 0:39:40.000

从卦中看,SQL 的请求时间是 09:56:56 ,Dump抓取时间为 09:58:39,也就表示当前这条 SQL 已经等待了 1分43秒,这确实是不可容忍的。

从 dump 中挖到这些信息后,让朋友重点观察下 SQLSERVER 端,比如在卡住的时候查下锁相关的 DMV视图,是不是出现了锁等待,也可以加上 nolock 尝试一下。

最终朋友在 SQLSERVER 层面修改了 max degree of parallelism 来提高并发度,说情况缓解了很多,这其中细节,熟悉 SQLSERVER 的朋友可以留言解答一下哈。

三:总结

这次不稳定的事故从直观上就能猜到可能是 SQLSERVER 层面导致的问题,但需要证据,所以我们需要用 windbg 在这小小的花园里,挖呀挖呀挖! 让朋友对外有数据层面的说服力。

图片名称

与记一次 .NET 某药材管理系统 卡死分析相似的内容:

记一次 .NET 某药材管理系统 卡死分析

## 一:背景 ### 1. 讲故事 前段时间有位朋友找到我,说他们在查询报表的时候发现程序的稳定性会受到影响,但服务器的内存,CPU都是正常的,让我帮忙看下怎么回事,问了下程序的稳定性指的是什么?指的是卡死,那既然是卡死,就抓一个卡死的dump吧。 ## 二:Windbg 分析 ### 1. 当前

记一次 .NET某账本软件 非托管泄露分析

一:背景 1. 讲故事 中秋国庆长假结束,哈哈,在老家拍了很多的短视频,有兴趣的可以上B站观看:https://space.bilibili.com/409524162 ,今天继续给大家分享各种奇奇怪怪的.NET生产事故,希望能帮助大家在未来的编程之路上少踩坑。 话不多说,这篇看一个.NET程序集泄

记一次 .NET 某拍摄监控软件 卡死分析

一:背景 1. 讲故事 今天本来想写一篇 非托管泄露 的生产事故分析,但想着昨天就上了一篇非托管文章,连着写也没什么意思,换个口味吧,刚好前些天有位朋友也找到我,说他们的拍摄监控软件卡死了,让我帮忙分析下为什么会卡死,听到这种软件,让我不禁想起了前些天 在程序员桌子上安装监控 的新闻,参考如下: 我

记一次 .NET某新能源MES系统 非托管泄露

一:背景 1. 讲故事 前些天有位朋友找到我,说他们的程序有内存泄露,跟着我的错题集也没找出是什么原因,刚好手头上有一个 7G+ 的 dump,让我帮忙看下是怎么回事,既然找到我了那就给他看看吧,不过他的微信头像有点像 二道贩子,不管到我这里是不是 三道,该分析的还得要分析呀。😄😄😄 二:Wi

记一次 .NET 某仪器测量系统 CPU爆高分析

一:背景 1. 讲故事 最近也挺奇怪,看到了两起 CPU 爆高的案例,且诱因也是一致的,觉得有一些代表性,合并分享出来帮助大家来避坑吧,闲话不多说,直接上 windbg 分析。 二:WinDbg 分析 1. CPU 真的爆高吗 这里要提醒一下,别人说爆高不一定真的就是爆高,我们一定要拿数据说话,可以

记一次 .NET 某企业OA后端服务 卡死分析

一:背景 1.讲故事 前段时间有位朋友微信找到我,说他生产机器上的 Console 服务看起来像是卡死了,也不生成日志,对方也收不到我的httpclient请求,不知道程序出现什么情况了,特来寻求帮助。 哈哈,一般来说卡死的情况在窗体程序(WinForm,WPF) 上特别多,在 Console,We

记一次 .NET 某娱乐聊天流平台 CPU 爆高分析

一:背景 1.讲故事 前段时间有位朋友加微信,说他的程序直接 CPU=100%,每次只能手工介入重启,让我帮忙看下到底怎么回事,哈哈,这种CPU打满的事故,程序员压力会非常大, 我让朋友在 CPU 高的时候抓 2 个 dump 下来,然后发给我分析。 二:WinDbg 分析 1. CPU 真的被打满

记一次 .NET 某医疗器械 程序崩溃分析

一:背景 1.讲故事 前段时间有位朋友在微信上找到我,说他的程序偶发性崩溃,让我帮忙看下怎么回事,上面给的压力比较大,对于这种偶发性崩溃,比较好的办法就是利用 AEDebug 在程序崩溃的时候自动抽一管血出来,看看崩溃点是什么,其实我的系列文章中,关于崩溃类的dump比较少,刚好补一篇上来,话不多说

记一次.NET某工控图片上传CPU爆高分析

一:背景 1.讲故事 今天给大家带来一个入门级的 CPU 爆高案例,前段时间有位朋友找到我,说他的程序间歇性的 CPU 爆高,不知道是啥情况,让我帮忙看下,既然找到我,那就用 WinDbg 看一下。 二:WinDbg 分析 1. CPU 真的爆高吗 其实我一直都在强调,要相信数据,口说无凭,一定要亲

记一次 .NET 某自动化采集软件 崩溃分析

一:背景 1.讲故事 前段时间有位朋友找到我,说他的程序在客户的机器上跑着跑着会出现偶发卡死,然后就崩掉了,但在本地怎么也没复现,dump也抓到了,让我帮忙看下到底怎么回事,其实崩溃类的dump也有简单的,也有非常复杂的,因为大多情况下都是非托管层面出现的各种故障,非常考验对 C, C++, Win