曲演杂坛--一条DELETE引发的思考

原文:曲演杂坛--一条DELETE引发的思考

场景介绍:

我们有一张表,专门用来生成自增ID供业务使用,表结构如下:

CREATE TABLE TB001
(
    ID INT IDENTITY(1,1) PRIMARY KEY,
    DT DATETIME
)

每次业务想要获取一个新ID,就执行以下SQL:

INSERT INTO TB001(DT)
SELECT GETDATE();
SELECT @@IDENTITY

由于这些数据只需保留最近一天的数据,因此建立一个SQL作业来定期删除数据,删除脚本很简单:

DELETE TOP(10000) FROM TB001
WHERE DT<GETDATE()-1

作业每10秒运行一次,每天运行2个小时,最大能删除数据720W数据。

问题:

由于前台页面没有防刷机制,有恶意用户使用程序攻击,造成每天数据量暴增近1亿(是不是我也可以出去吹下NB!!!),当前作业无法删除这么庞大的数据,得进行调整.

解决思路:

在保证程序不修改的前提下,我们首先想到的办法是:

1:提高单次删除的数量,会造成锁阻塞,阻塞严重就会影响到业务,这无法接受;

2:延长整个作业运行周期,研发人员担心影响白天正常业务,要求作业只能夜里低峰区进行

3:提高删除频率,可以考虑,但具体频率需要测试

由于方法2只能少量的增加,因此我们集中在方法3的测试上,由于SQL Agent Job的最小周期是10秒,因此在作业调用的脚本上修改,每次作业调用多条删除语句,删除语句中间使用WAITFOR来间歇执行:

DELETE FROM TB001
WHERE DT<GETDATE()-1
WAITFOR DELAY ‘0:0:05‘
DELETE FROM TB001
WHERE DT<GETDATE()-1

测试运行时,发现对业务影响不大,因此就上线修改。

结果半夜作业运行后,研发立即收到报警,程序访问延时严重,到服务器上一查,锁等待超过500000多毫秒,sys.dm_exec_requests中显示有300多回话等待同一个锁资源,停掉作业后程序立马回复正常。

让我们来测试下这是为啥呢?

首先准备测试数据

CREATE TABLE TB001
(
    ID INT IDENTITY(1,1) PRIMARY KEY,
    DT DATETIME
)
GO
INSERT INTO TB001(DT)
SELECT GETDATE()-1 FROM SYS.all_columns
GO
INSERT INTO TB001
SELECT GETDATE()-1 FROM TB001
GO 13

然后尝试删除数据

BEGIN TRAN
DELETE TOP(10000)  FROM TB001
WHERE DT<GETDATE()-1

查看锁情况:

--上面事务的回话ID为55sp_lock 55

单次删除数据太大,造成表锁,阻塞程序插入数据,解决办法:调整单次删除数量

PS: SQL SERVER会在行集上获得5000个锁时尝试锁升级,同时也会在内存压力下尝试锁升级。

于是我们只能尝试更高的删除频率和更小的删除批量,于是将删除代码修改如下:

DECLARE @ID INT
SET @ID=0
WHILE(@ID<100)
BEGIN

DELETE TOP(100)  FROM TB001
WHERE DT<GETDATE()-1
WAITFOR DELAY ‘0:0:00:400‘
SET @ID=@ID+1
END

PS: 删除100行只是一个尝试值,应该没有一个最优的删除行数,牛逼的解释是设置该值需考虑:删除需要扫描多少页面/执行多次时间/表上索引数量/写入多少日志/锁与阻塞等等,不装逼的解释就是多测试直到达到满足需求的值就好。
假设平均删除90行数据会写60k的日志,你删除100行导致需要两次物理写,这是何必呢?

使用修改后的版本测试了下,速度飞快,人生如此美好,哪还等啥,更新到生产服务器上,让暴风雨来得更猛烈些吧!!!

果然,这不是人生的终点,悲剧出现了,执行不稳定,本来40秒能执行完的SQL,有时候需要4分钟才能完成,这不科学啊,我都测试好几遍的呢!!!

细细看看语句,不怪别人,自己写的SQL垃圾,没办法,在看一遍代码:

DELETE TOP(100)  FROM TB001
WHERE DT<GETDATE()-1

这是按照业务逻辑写的,没有问题,但是的但是,DT上没有索引,由于表中DT和ID都是顺序增长的,按照主键ID的升序扫描,排在最前面的ID最小,其插入时间也最早,也是我们删除的目标,因此只需要几次逻辑读便可以轻松找到满足条件的100行数据,因此消耗也最小,但是理想很丰满,现实很骨感,

在频繁地运行DELETE语句后,使用SET STATISTICS IO ON来查看,同样的执行计划:

但是造成的逻辑IO完全不一样,从4次到几千次,此现象在高频率删除下尤其明显(测试时可以连续运行10000次删除查看)

尝试其他写法,强制走ID索引扫描:

DECLARE @ID INT
SET @ID=0

WHILE(@ID<10000)
BEGIN

;WITH T1 AS(
SELECT TOP(100)* FROM TB001
WHERE DT<GETDATE()-1
ORDER BY ID
)
DELETE FROM T1

SET @ID=@ID+1
END

测试发现依然是同样问题,难道无解么?

再次研究业务发现,我们可以查出一个要要删除的最大ID,然后删除小于这个ID的数据,而且可以避免一个潜在风险,由于DT没有索引,当一天前的数据被清除后,如果作业继续运行,要查找满足条件的100行数据来进行删除,便会对表进行一次全表扫描,消耗更庞大数量的逻辑IO。

DECLARE @MaxID INT

SELECT @MaxID=MAX(ID)
FROM TB001 WITH(NOLOCK)
WHERE DT<GETDATE()

DECLARE @ID INT
SET @ID=0

WHILE(@ID<10000)
BEGIN

;WITH T1 AS(
SELECT TOP(100)* FROM TB001
WHERE ID<@MaxID
ORDER BY ID
)
DELETE FROM T1

SET @ID=@ID+1
END

从逻辑IO上看,性能没有明显提升,但是从CPU的角度来看,CPU的使用明显降低,猜测有两方面原因:
1:日期比较消耗要大于INT(日期类似浮点数的存储,处理需要消耗额外的CPU资源)

2:由于ID索引排序的原因,可能不需要对页的所有数据逐行比较来判断这些数据是否满足条件(个人猜测,请勿当真)

由于ID是自增连续的,虽然可能有因为事务回滚或DBA干预导致不连续的情况,但这不是重点,重点是我们不一定要每次都删除100行数据,因此我们可以按ID来进行区间删除,抛弃TOP的方式:

DECLARE @MaxID INT
DECLARE @MinID INT

SELECT @MaxID=MAX(ID),@MinID=MIN(ID)
FROM TB001 WITH(NOLOCK)
WHERE DT<GETDATE()-1

DECLARE @ID INT
SET @ID=0

WHILE(@ID<10000)
BEGIN

DELETE  FROM TB001
WHERE ID>=@MinID+@ID*100
AND ID<@MinID+(@ID+1)*100
AND ID<@MaxID

SET @ID=@ID+1
END

测试发现,每次删除的逻辑IO都很稳定且消耗很低,这才是最完美的东东啊!!

--=======================================================

总结:

本来看似一个很简单的SQL,需要考虑很多方面,各种折腾,各种困惑,多看点基础原理的资料,没有坏处;大胆猜测,谨慎论证,多测试是验证推断的唯一办法;

提点额外话:

1. 关于业务:在很多时候,DBA不了解业务就进行优化,是很糟糕的事情,而且很多优化的最佳地方是程序而不是数据库,敢于否定开发人员所谓的“业务需求”也是DBA的一项必备技能。有一次优化发现,开发对上千万数据排序分页,问询开发得到答复“用户没有输入过滤条件”,难道用户不输入就不能设置点默认条件么?如果用户查询最新记录,我们可以默认值查询最近三天的数据。

2. 关于场景:有一些初学者,很期望获得一些绝对性的推论,而不考虑场景的影响,且缺乏测试,武断地下结论,这同样是很可怕的事情,适合你场景的解决方案,才是最佳的解决方案。

遗留问题:

1. 针对本文提到的业务场景,还有一些其他解决方案,比如分区方式,定期进行分区切换再删除数据,又比如使用SQL SERVER 2012中新增的“序列”;

2. 猜测上面所提到的问题根源是SQL Server删除行的实现方式,在删除时仅标示数据行被删除而不是真正的从页面删除,在高频率不间断地删除过程中,这些数据页没有被及时回收删除掉,

SQL Server扫描了“本该”删除的数据页,造成逻辑读较高;而使用ID的区间范围查找,可以避免扫描到这些数据页,直接移动到真正需要访问的数据页;当删除频率较低时(比如3秒删除一次),这种问题就不会出现。

--=============================

依旧是妹子:

时间: 2024-10-01 23:13:59

曲演杂坛--一条DELETE引发的思考的相关文章

曲演杂坛--页拆分2

在上次的曲演杂坛--页拆分中基于SQL SERVER 2008版本进行了测试,在SQL Server 2012和SQL Server 2014版本中,对页拆分进行了优化,避免了一次插入导致多次页拆分的情况. 让我们在SQL Server 2014版本中来测试下: --========================================= --使用TestDB数据库来测试 USE TestDB GO DROP TABLE TB01 GO --======================

曲演杂坛--使用ALTER TABLE修改字段类型的吐血教训

--===================================================================== 事件起因:开发发现有表插入数据失败,查看后发现INT类型自增值已经到了最大值,无法继续插入,需要修改INT类型为BIGINT类型. --===================================================================== 作为一群自认为还算有点经验的老DBA,大家相互商量下,决定删除复制,然后禁止访问

曲演杂坛--收缩数据库数据文件

--===================================================================== 部分朋友在遇到收缩数据库文件的时候遇到一些困难,发现明明有大量剩余空间或删除了大量数据,还是无法收缩数据库,这是为啥子呢? --==================================================================== 要收缩数据库文件,首先我们需要确定有多少空间可以收缩,由于收缩文件是按照Extent来收缩

曲演杂坛--蛋疼的ROW_NUMBER函数

使用ROW_NUMBER来分页几乎是家喻户晓的东东了,而且这东西简单易用,简直就是程序员居家必备之杀器,然而ROW_NUMBER也不是一招吃遍天下鲜的无敌BUG般存在,最近就遇到几个小问题,拿出来供大家娱乐下. ---====================================================== 问题1:为什么加WHERE条件就慢,不加反而快? 查询SQL: WITH Temp AS( SELECT * , ROW_NUMBER()OVER(ORDER BY T2.

曲演杂坛--查看那个应用连接到数据库

在做数据库迁移或其他维护的时候,需要应用端暂停访问,我们可以通过视图查看到连接到数据的IP,对于ADO.NET访问的话,我们还可以查看到连接过来的应用名称,但是对于JAVA程序使用JDBC来访问时,我们就很难知道具体是哪个应用程序在访问我们的数据库,尤其是应用服务器上运行着很多的应用的时候,我们该如何去做呢? --============================================= 首先对于ADO.NET的访问,通过以下代码 SELECT [net_ip].session_

曲演杂坛--表变量的预估行数

在讨论临时表和表变量的区别时,其中一个重点就是两者的预估行数,在默认设置下,表变量的预估行数总是为1,而临时表的预估行数会随表中数据量的变化而变化.正是因为这个区别,在处理大数据量时往往推荐使用临时表而非表变量(当然还有索引的问题). 科普下, 查询优化器会根据预估行数和操作运算符来预估资源消耗,根据资源消耗情况来选取相对“较优”的执行计划,如果预估行数与实际行数差距较大,则可能生成不高效的执行计划. 举个栗子,看着远处的小土包没多远,骑着马跑了半天发现还没到,这就是看山跑死马的典故,如果能相对

曲演杂坛--Update的小测试

今天偶然想起一个UPDATE相关的小问题,正常情况下,如果我们将UPDATE改写成与之对应的SELECT语句,其SELECT查询结果应与UPDATE的目标表存在一对一的关系,例如: 对于UPDATE语句: UPDATE TB1 SET C2=TB2.C2 FROM TB1 INNER JOIN TB2 ON TB1.C1=TB2.C1 假设TB1中C1为主键,那么改写成对应的SELECT SQL SELECT TB1.C1, TB1.C2 AS C2_OLD, TB2.C2 AS C2_NEW

曲演杂坛--当ROW_NUMBER遇到TOP

值班期间研发同事打来电话,说应用有超时,上服务器上检查发现有SQL大批量地执行,该SQL消耗IO资源较多,导致服务器存在IO瓶颈,细看SQL,发现自己都被整蒙了,不知道这SQL是要干啥,处理完问题赶紧研究下. SQL类似于: WITH T1 AS ( SELECT TOP ( 100 ) ID , ROW_NUMBER() OVER ( ORDER BY C1 ) AS RID FROM [dbo].[TB002] ) SELECT * FROM T1 WHERE T1.RID > (1-1)*

曲演杂坛--为什么SELECT语句会被其他SELECT阻塞?

很多刚入门的DBA在捕获阻塞得时候,会问这么一个问题“为什么这个SELECT语句被那个SELECT语句阻塞了,难道不是共享锁么?” 让我们来做个小测试,首先准备一些测试数据: --====================================== --准备测试数据 SELECT ROW_NUMBER()OVER(ORDER BY object_id) AS RID, name AS C1 INTO TB003 FROM sys.all_columns GO CREATE UNIQUE