ASP.NET Hang - общий словарь concurrency проблемы вызывает ГБО тупик

В течение последнего месяца наше веб-приложение ASP.NET перестало отвечать на запросы, и нам пришлось reset пул приложений, чтобы вернуть его.

У нас возникли проблемы с определением точной причины проблемы, так как ошибок в журнале событий сервера нет. Сайт просто перестает отвечать.

Итак, мы использовали WinDbg, чтобы попытаться проанализировать дамп памяти, сделанный, когда сайт не ответил с помощью записей в блоге Тесса Феррандеза: GC Hangs и Высокая загрузка процессора

Запустив !threadpool, я вижу следующее:

CPU utilization: 81%
Worker Thread: Total: 10 Running: 8 Idle: 2 MaxLimit: 400 MinLimit: 160
Work Request in Queue: 1930
--------------------------------------
Number of Timers: 72
--------------------------------------
Completion Port Thread:Total: 1 Free: 1 MaxFree: 8 CurrentLimit: 0 MaxLimit: 400 MinLimit: 120

По словам Тесс в блоге в блоге, это говорит о том, что мы застряли в середине коллекции мусора (что обычно занимает несколько секунд nano), потому что процессор показывает 81% это то, что устанавливает платформа .NET, пока он собирает мусор. Он получает это, потому что новые нити не могут быть порождены, когда это значение больше 80%. Кроме того, вы можете видеть, что в очереди есть 1930 запросов, хотя из возможного 400 существует только 10 рабочих потоков.

Запустив команду !threads, я вижу два потока, для которых отключен PreEmptive GC:

                                   PreEmptive   GC Alloc                Lock
       ID  OSID ThreadOBJ    State GC           Context       Domain   Count APT Exception
  10    1  18bc 00000000001b9710   1008220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  16    2   e68 00000000001c0900      b220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Finalizer)
  18    4  1118 00000000001df300   1009220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  19    5  1560 00000000001e9068   100a220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  20    6  11d0 00000000001f14d8      1220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn
  22    9  19d0 000000001bc666d0   1019220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
   9    c  13f4 000000001d173600   8008220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Completion Port)
  24   23  17c4 00000000001a0c40   1009220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  25   24  1088 000000001d205900   1009220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
   6   21  1248 000000001d1f6e80       220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn
   4   27   eb0 000000000019df08       220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn
  27   29   39c 000000001bc720f0   1009220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  28   26  17ec 00000000001a7be0   1019220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  29   2c  1040 000000001d1c8160   1009220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
   3   2a  1788 000000001d22ed48       220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn
  30   1f   830 000000001bc5b180       220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn
  32   1e   b38 000000001d1995a0   1009220 Enabled  0000000000000000:0000000000000000 001f0d80     2 Ukn (Threadpool Worker)
  33   1d  19fc 000000001d199a98   1019220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  34   1c   c84 000000000019f8a8   1009220 Enabled  0000000008d8d880:0000000008d8d88c 001f0d80     1 Ukn (Threadpool Worker)
  35   1a  12e8 000000001d1a1468   10092a2 Disabled 000000000c88e294:000000000c88e6d0 001f0d80     1 Ukn (Threadpool Worker)
   5   22  1a70 000000001d1a6008       220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn
  36   28  1050 000000001d209f18   1019220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  37   25  19f0 000000001d22f738   1019220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  38   2b  15cc 000000001d29b2d0      b220 Enabled  0000000000000000:0000000000000000 001f0d80     1 Ukn
  39   20  1228 000000001d290a88   1019220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  40   1b   c98 000000001d290420   10092a2 Disabled 0000000010adc094:0000000010addcf8 001f0d80     1 Ukn (Threadpool Worker)
  41   19  15dc 000000001d2a3168   1019220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn (Threadpool Worker)
  43   18  1a64 000000001d2c8cc0       220 Enabled  0000000000000000:0000000000000000 001b3b98     0 Ukn

Из того, что я понимаю, это плохо и в основном означает, что сбор мусора не может быть завершен до тех пор, пока все потоки не будут включены, что означает, что процесс остается висящим.

Есть небольшое несоответствие по сравнению с сообщением, которое меня смущает тем, что нет нити, помеченной как "(GC)" - поток, который вызвал сбор мусора?

Но несмотря на то, что из-за того, что два потока отключены, я думаю, что это проблема, и что сообщение в блоге Tess's встретятся, чтобы рассказать мне точную причину и решение этого. Но, к сожалению, проблема связана с проблемой смешанной DLLloading, которая после просмотра стеков для отключенных потоков не пытается загрузить DLL. Например, здесь kb для потока 40:

1c93dc74 79142280 0ac30260 0bc85820 00000003 mscorlib_ni+0x29f318
1c93dc88 1e6a8c6c 1c93dc94 00000000 00000001 clr!OnHijackScalarTripThread
WARNING: Frame IP not in any known module. Following frames may be wrong.
1c93dca0 1e6791f7 00000003 00000000 00000000 0x1e6a8c6c
1c93e270 791421bb 0c886820 1bac554d 00000000 0x1e6791f7
1c93e284 7916a553 1c93e354 00000001 1c93e320 clr!CallDescrWorker+0x33
1c93e300 7916a6f4 1c93e354 00000001 1c93e320 clr!CallDescrWorkerWithHandler+0x8e
1c93e450 7916a729 1bd17090 1c93e574 1c93e720 clr!MethodDesc::CallDescr+0x194
1c93e46c 7916a749 1bd17090 1c93e574 1c93e720 clr!MethodDesc::CallTargetWorker+0x21
1c93e484 79190c04 1c93e720 ed47daf9 1c93ea18 clr!MethodDescCallSite::Call_RetArgSlot+0x1c
1c93e648 79190f53 1c85ce30 1bd17090 1b8b6834 clr!CallWithValueTypes_RetArgSlotWrapper+0x5c
1c93e930 79191115 1c85ce30 00000000 0c886b80 clr!InvokeImpl+0x621
1c93e9fc 79b3d839 1d1a1468 00000096 1c93ea18 clr!RuntimeMethodHandle::InvokeMethodFast+0x180
1c93ea50 79b3d52c 0ecc3e60 00000096 1038d084 mscorlib_ni+0x2bd839
1c93ea88 79b3c19d 00000000 00000000 0c885530 mscorlib_ni+0x2bd52c
1c93eab0 79ad6d16 00000000 0c885530 0ec452c4 mscorlib_ni+0x2bc19d
1c93ec04 7a045331 00000000 00000000 00000000 mscorlib_ni+0x256d16
1c93ecbc 672d72b5 0c862b08 00000000 00000000 mscorlib_ni+0x7c5331
1c93ece8 672eb90c 00000000 1c93ed18 0c862b08 System_Web_ni+0x1772b5
1c93ed28 67301e9e 1c93ed54 07f81050 0c863014 System_Web_ni+0x18b90c
1c93ed80 672b5998 1b8b2010 1b8e12c4 1c93f208 System_Web_ni+0x1a1e9e
1c93ed9c 67300602 0c862b08 0ec4af84 0c862b08 System_Web_ni+0x155998
1c93edd8 6730034d 0ac37a80 0c861c1c 1c93ee5c System_Web_ni+0x1a0602
1c93ede8 672ff8fd a65adfcd 79145c50 1c93effc System_Web_ni+0x1a034d
1c93ee5c 67935cdc 00000002 6726b530 00000000 System_Web_ni+0x19f8fd
1c93ee98 791425a1 1c93f228 00000002 028f2b9c System_Web_ni+0x7d5cdc
1c93eeac 79208c9b 67935cc0 6726b530 0ac4ea6c clr!COMToCLRDispatchHelper+0x28
1c93ef40 79208d74 6726b530 0ac4ea6c 00000001 clr!BaseWrapper<Stub *,FunctionBase<Stub *,&DoNothing<Stub *>,&StubRelease<Stub>,2>,0,&CompareDefault<Stub *>,2>::~BaseWrapper<Stub *,FunctionBase<Stub *,&DoNothing<Stub *>,&StubRelease<Stub>,2>,0,&CompareDefault<Stub *>,2>+0xfa
1c93ef64 79208dda 1d1a1468 1c93f1f8 1b7affe0 clr!COMToCLRWorkerBody+0xb4
1c93efbc 792098c9 1d1a1468 1c93f1f8 1b7affe0 clr!COMToCLRWorkerDebuggerWrapper+0x34
1c93f1cc 02b3a1aa 1d1a1468 1c93f1f8 a65adfcd clr!COMToCLRWorker+0x614
1c93f1e0 69f5aa4f 00000001 028038c8 00000000 0x2b3a1aa
1c93f544 69f5ab4a 028038c8 69f5aae2 1c93f56c webengine4!HttpCompletion::ProcessRequestInManagedCode+0x1cd
1c93f554 69f5aafe 028038c8 00000000 00000000 webengine4!HttpCompletion::ProcessCompletion+0x4a
1c93f56c 792078af 028038c8 ed47c90d 0000ffff webengine4!CorThreadPoolWorkitemCallback+0x1c
1c93f5bc 79206c5f 1c93f61f 1c93f61e ed47ca9d clr!UnManagedPerAppDomainTPCount::DispatchWorkItem+0x195
1c93f62c 792084c5 00000000 ed47ca25 00000000 clr!ThreadpoolMgr::NewWorkerThreadStart+0x20b
1c93f694 792f76e0 00000000 fff91c00 00000002 clr!ThreadpoolMgr::WorkerThreadStart+0x3d1
1c93ffb8 7d4dfb97 00247430 00000000 00000000 clr!Thread::intermediateThreadProc+0x4b
1c93ffec 00000000 792f7698 00247430 00000000 kernel32!BaseThreadStart+0x34

Но потом я заметил что-то интересное. Используя команду !eestack -ee -short, я увидел, что потоки 35 и 40 (те, что с отключенным PreEmptive GC) находятся в одном и том же текущем кадре:

Current frame: (MethodDesc 798ee360 +0xab System.Collections.Generic.Dictionary`2[[System.Int32, mscorlib],[System.__Canon, mscorlib]].FindEntry(Int32))

Вот что привело меня к этой статье и заставило меня думать, что я определенно нашел бы проблему. Но, к сожалению, после использования стека для возврата к коду, словарь в вопросе не был статическим, поэтому я предполагаю, что это не может быть проблемой.

В настоящее время я почти не разбираюсь в идеях - я не эксперт в анализе дамп файлов (на самом деле я только начал вчера: D), поэтому, если у кого-то есть какие-то указатели на то, что я должен сделать, чтобы определить причину проблема, которая была бы большой.

UPDATE

После запуска команды ~*ekb, предложенной Брайаном, я нашел поток, который запустил сборку мусора, потому что он имеет GarbageCollectGeneration в стеке.

1e61e54c 7d4d8c9e 000003c4 00000000 00000000 ntdll_7d600000!NtWaitForSingleObject+0x15
1e61e5bc 791897da 000003c4 ffffffff 00000000 kernel32!WaitForSingleObjectEx+0xac
1e61e5f0 7918981b 000003c4 ffffffff 00000000 clr!CLREvent::CreateManualEvent+0xf6
1e61e640 791896f1 00000000 efb5da31 0019f8a8 clr!CLREvent::CreateManualEvent+0x137
1e61e680 79189712 ffffffff 00000000 00000000 clr!CLREvent::WaitEx+0x126
1e61e694 792a05cc ffffffff 00000000 00000000 clr!CLREvent::Wait+0x19
1e61e6b8 792a04e5 ffffffff 00000000 0019f8f0 clr!SVR::gc_heap::wait_for_gc_done+0x6f
**1e61e6e0 792a424b 00000000 00000001 001bc600 clr!SVR::GCHeap::GarbageCollectGeneration+0x14f**
1e61e714 79229fd2 0019f8f0 00000040 00000000 clr!SVR::gc_heap::try_allocate_more_space+0x184
1e61e730 7922a080 0019f8f0 00000040 00000000 clr!SVR::gc_heap::allocate_more_space+0x30
1e61e750 79188f33 0019f8f0 00000040 00000000 clr!SVR::GCHeap::Alloc+0x55
1e61e76c 7915dd44 00000040 00000000 00000000 clr!Alloc+0x8d
1e61e7ac 7915dd84 0000001a 79169a39 79166166 clr!SlowAllocateString+0x42
1e61e7b4 79169a39 79166166 00000019 efb5d4c9 clr!UnframedAllocateString+0x12
1e61e7b8 79166166 00000019 efb5d4c9 00001f3e clr!StringObject::NewString+0x13
1e61e878 79ac139e 00000000 0019f8a8 0515fcd0 clr!COMNlsInfo::InternalChangeCaseString+0x128
1e61e88c 79ac51b4 0515fcd0 1e61e900 20e59f26 mscorlib_ni+0x24139e
1e61e898 20e59f26 1e61e900 08ce6208 050fd8e8 mscorlib_ni+0x2451b4

Я также должен отметить, что наше приложение работает в 32-битном режиме на 64-битном сервере. К сожалению, когда он последний раз не реагировал, мы забыли взять дамп в 32 бит, а это значит, что при загрузке файла дампа в WinDbg нам нужно запустить команду !wow64exts.sw для анализа. Не уверен, насколько это заметно (возможно, поэтому я не вижу поток "(GC)" ), но мы не можем заставить команду `! Clrstack 'работать. В настоящее время мы ожидаем, что он снова не реагирует, поэтому мы можем взять дамп в 32 бит.

Ответ 1

Итак, мы в конечном итоге дошли до сути проблемы. Это оказалось комбинацией двух статей, упомянутых в моем первоначальном вопросе:

  • Есть два потока, пытающихся получить доступ к одному и тому же родовому словарю
  • GC не может завершиться, потому что у двух потоков есть PreEmptive GC, который отключен.

Немного подробнее:

В то время как два потока находятся в каком-то тупике, третий поток присоединяется к стороне, желающей выделить некоторую память в куче. Это запускает новый GC, но GC не может завершиться, потому что у этих двух потоков установлен PreEmptive GC для отключения. Поскольку GC не может быть завершен, процесс IIS остается в состоянии, при котором новые запросы не могут быть созданы для запросов, что означает, что любые последующие запросы ставятся в очередь. Очереди продолжают расти, и ответы не возвращаются до тех пор, пока пул приложений не будет повторно использован.

Как я уже упоминал в моем первоначальном вопросе - мы проследили словарь обратно к коду, и он НЕ был статическим словарем, поэтому мы предположили, что это должна быть красная селедка; как еще два потока могут получить доступ к одному и тому же объекту? Ну, оказывается, это стало возможным, потому что словарь хранился в сеансе InProc.

ASP.NET по умолчанию предотвращает одновременные запросы для одного и того же идентификатора сеанса. Это достигается путем установки исключительной блокировки сеанса на запрос и для предотвращения этого точного сценария. Однако это приложение "устаревшее", которое использует старую структуру AjaxPro и было настроено на обход этой блокировки. Это позволило одновременным AjaxRequests для того же сеанса получить доступ к одному и тому же объекту сеанса.

Оказалось, что мы недавно ввели ошибку в нашем JavaScript, которая несколько раз запускала один и тот же запрос AjaxPro, тем самым вызывая проблему.

Ответ 2

Это может быть полностью из левого поля, но среди данных дампа я заметил это:

1c93eeac 79208c9b 67935cc0 6726b530 0ac4ea6c clr!COMToCLRDispatchHelper+0x28

Этот вызов COMToCLRDispatchHelper заставляет меня задаться вопросом, вызывает ли приложение 32-битный COM-компонент, который может немного замалчивать воды для вас?