我在数据库中遇到两个存储过程之间的问题,一个尝试更新,另一个想要删除大量数据。
我的Offer
表包含5000万行(我知道这不是一个好习惯,我正在清除数据)。
该表包含一个增量ID(不是offer_id),它是带有聚簇索引的主键。
xml_deadlock_report:
<event name="xml_deadlock_report" package="sqlserver" timestamp="2018-01-02T00:56:16.360Z">
<data name="xml_report">
<type name="xml" package="package0" />
<value>
<deadlock>
<victim-list>
<victimProcess id="process3697498" />
</victim-list>
<process-list>
<process id="process3697498" taskpriority="0" logused="127362200" waitresource="PAGE: 9:1:99977592 " waittime="6212" ownerId="32514985656" transactionname="DELETE" lasttranstarted="2018-01-02T01:55:56.853" XDES="0x902e53ed28" lockMode="IX" schedulerid="5" kpid="10104" status="suspended" spid="155" sbid="0" ecid="0" priority="0" trancount="2" lastbatchstarted="2018-01-02T00:00:02.427" lastbatchcompleted="2018-01-02T00:00:02.427" lastattention="1900-01-01T00:00:00.427" clientapp="SQLAgent - TSQL JobStep (Job 0xAF5CC7B9127279438B52607063734954 : Step 1)" hostname="HB01-BOSQL-CL02" hostpid="5008" loginname="RUEDUCOMMERCE\hicham.boutaleb" isolationlevel="read committed (2)" xactid="32514985656" currentdb="9" lockTimeout="4294967295" clientoption1="671088928" clientoption2="128056">
<executionStack>
<frame procname="EchangesDb.dbo.PurgeGM2" line="433" stmtstart="57518" stmtend="57750" sqlhandle="0x03000900c9c6d33469f20e0158a8000001000000000000000000000000000000000000000000000000000000">
DELETE
TOP (100000)
OFFER
WHERE
ID IN (SELECT ID FROM #OFFERSTODELETE)
OPTION(MAXDOP 1)
</frame>
<frame procname="adhoc" line="1" sqlhandle="0x010009008b23cd0690ffbc006500000000000000000000000000000000000000000000000000000000000000">
Exec PurgeGM2 </frame>
</executionStack>
<inputbuf>
Exec PurgeGM2 </inputbuf>
</process>
<process id="process5b230c8" taskpriority="0" logused="183626528" waitresource="PAGE: 9:1:99056248 " waittime="2010" ownerId="32514934129" transactionname="user_transaction" lasttranstarted="2018-01-02T01:55:46.243" XDES="0xd0e49f16c0" lockMode="U" schedulerid="15" kpid="10684" status="suspended" spid="128" sbid="0" ecid="22" priority="0" trancount="0" lastbatchstarted="2018-01-02T01:55:46.240" lastbatchcompleted="2018-01-02T01:55:46.240" lastattention="1900-01-01T00:00:00.240" clientapp=".Net SqlClient Data Provider" hostname="HB01-BIZTALK01" hostpid="2620" isolationlevel="read committed (2)" xactid="32514934129" currentdb="9" lockTimeout="4294967295" clientoption1="673317152" clientoption2="128056">
<executionStack>
<frame procname="EchangesDb.dbo.offer_insert_diff" line="183" stmtstart="8450" stmtend="8780" sqlhandle="0x0300090048642c329947700146a8000001000000000000000000000000000000000000000000000000000000">
UPDATE o
SET tc_process_status = 0
FROM [dbo].[offer] AS o WITH(NOLOCK)
INNER JOIN Temp_OffersToMove AS t WITH(NOLOCK) ON (o.offer_id = t.offer_id) </frame>
</executionStack>
<inputbuf>
Proc [Database Id = 9 Object Id = 841770056]
</inputbuf>
</process>
</process-list>
<resource-list>
<pagelock fileid="1" pageid="99977592" dbid="9" subresource="FULL" objectname="EchangesDb.dbo.offer" id="lock3d70957380" mode="U" associatedObjectId="72057595568062464">
<owner-list>
<owner id="process5b230c8" mode="U" />
</owner-list>
<waiter-list>
<waiter id="process3697498" mode="IX" requestType="wait" />
</waiter-list>
</pagelock>
<pagelock fileid="1" pageid="99056248" dbid="9" subresource="FULL" objectname="EchangesDb.dbo.offer" id="lock6d7712ab80" mode="IX" associatedObjectId="72057595568062464">
<owner-list>
<owner id="process3697498" mode="IX" />
</owner-list>
<waiter-list>
<waiter id="process5b230c8" mode="U" requestType="wait" />
</waiter-list>
</pagelock>
</resource-list>
</deadlock>
</value>
</data>
</event>
答案 0 :(得分:1)
Offer.Offer_Id
不是主键并不重要。锁包括行,页或表,而不是列。如果表中的一个字段发生更改,则整行将被锁定为最小值。
根据它的编写方式,我假设您的删除程序正在运行此声明:
DELETE TOP (100000) OFFER
WHERE ID IN (
SELECT ID
FROM #OFFERSTODELETE
)
OPTION (MAXDOP 1)
在某种循环中,可能在每次迭代时都有提交(和可能的检查点),直到没有删除任何行? #OFFERSTODELETE
可能是几百万行?
您可以通过减少每次迭代删除的行数来降低死锁的可能性。对100
或500
说。这将减少锁的数量,并降低将锁升级到页锁或表锁的可能性。当然,整体上需要更长的时间,但锁定的重量会更少。如果您的用户在预定的停机时间内共享时区或(甚至更好),那么在一夜之间进行删除也是一个好主意。然后,您可以删除MAXDOP
限制,而不用担心CPU使用情况。
除此之外,如果不了解每个程序的全部内容,就不可能提出任何建议。您可以重写这两个程序,以便它们不会相互死锁。不幸的是,这并不总是可行的。
此外:
我的
Offer
表包含5000万行(我知道这不是一个好习惯,我正在清除数据)。
这个尺寸的桌子没有天生错误。事实上,它甚至不是特别大。如果您有一个好的聚类索引并且总是适当地过滤您的数据,那么由于表的大小,您不应该产生巨大的性能影响。只要您执行常规统计和索引维护,就可能没有任何问题。
答案 1 :(得分:0)
感谢所有人的帮助。
Erland's建议和一些额外的工作解决了我的问题:
1)减少批量大小(找到好的三分,对我来说5000)。
2)将清除死锁的初始值设置为低。
3)在清除中添加重试死锁(对于1025个错误)。
4)在每次迭代后减少包含要删除的行的临时表的大小(从id按顺序删除前5000)
现在它运作正常。
很多人都是。