5

我正在为 LUW 使用 DB2 9.7 FP5。我有一个有 250 万行的表,我想删除大约 100 万行,这个删除操作分布在整个表中。我正在使用 5 个删除语句删除数据。

delete from tablename where tableky between range1 and range2
delete from tablename where tableky between range3 and range4
delete from tablename where tableky between range5 and range5
delete from tablename where tableky between range7 and range8
delete from tablename where tableky between range9 and range10

在执行此操作时,前 3 次删除工作正常,但第 4 次失败并且 DB2 挂起,什么也不做。以下是我遵循的过程,请帮助我:

1. Set following profile registry parameters: DB2_SKIPINSERTED,DB2_USE_ALTERNATE_PAGE_CLEANING,DB2_EVALUNCOMMITTED,DB2_SKIPDELETED,DB2_PARALLEL_IO

2.Alter bufferpools for automatic storage.

3. Turn off logging for tables (alter table tabname activate not logged initially) and delete records

4. Execute the script with +c to make sure logging is off

删除如此大量数据的最佳做法是什么?为什么从同一个表中删除相同性质的数据时会失败?

4

6 回答 6

8

这总是棘手的任务。事务的大小(例如为了安全回滚)受事务日志大小的限制。事务日志不仅由您的 sql 命令填充,还由同时使用 db 的其他用户的命令填充。

我建议使用以下方法之一/或组合

1. 提交

经常提交 - 在你的情况下,我会在每个删除命令之后提交一次

2.增加事务日志的大小

我记得默认的 db2 事务日志不是很大。事务日志的大小应该为每个数据库单独计算/调整。在此处参考,并此处提供更多详细信息

3. 存储过程

编写和调用在块中删除的存储过程,例如:

-- USAGE - create: db2 -td@ -vf del_blocks.sql
-- USAGE - call: db2 "call DEL_BLOCKS(4, ?)"

drop PROCEDURE DEL_BLOCKS@

CREATE PROCEDURE DEL_BLOCKS(IN PK_FROM INTEGER, IN PK_TO INTEGER)
LANGUAGE SQL
BEGIN
    declare v_CNT_BLOCK     bigint;

    set v_CNT_BLOCK   = 0;

    FOR r_cur as c_cur cursor with hold for
        select tableky from tablename 
        where tableky between pk_from and pk_to
        for read only
    DO
            delete from tablename where tableky=r_cur.tableky;

            set v_CNT_BLOCK=v_CNT_BLOCK+1;

            if v_CNT_BLOCK >= 5000 then
                set v_CNT_BLOCK = 0;
                commit;
            end if;
    END FOR;

    commit;
END@

4.导出+导入替换选项

在某些情况下,当我需要清除非常大的表或只留下少量记录(并且没有 FK 约束)时,我使用了导出 + 导入(替换)。替换导入选项非常具有破坏性——它会在开始导入新记录之前清除整个表(参考db2 import 命令),因此请确保您在做什么并在之前进行备份。对于此类敏感操作,我创建了 3 个脚本并分别运行:备份、导出、导入。这是导出的脚本:

echo '===================== export started '; 
values current time;

export to tablename.del of del  
select *  from tablename where (tableky between 1 and 1000 
    or tableky between 2000 and 3000 
    or tableky between 5000 and 7000 
    ) ; 
echo '===================== export finished ';  
values current time;

这是导入脚本:

echo '===================== import started ';  
values current time;

import from tablename.del of del  allow write access commitcount 2000
-- !!!! this is IMPORTANT and VERY VERY destructive option  
replace  
into tablename ;

echo '===================== import finished ';

5.截断命令

Db2 在 9.7 版中引入了 TRUNCATE 语句,它:

从表中删除所有行。

基本上:

TRUNCATE TABLE <tablename> IMMEDIATE

我在 db2 中没有使用 TRUNCATE 的经验,但在其他一些引擎中,该命令非常快并且不使用事务日志(至少不是以通常的方式)。请在此处官方文档中查看所有详细信息。作为解决方案 4,此方法也非常具有破坏性 - 它会清除整个表,因此在发出命令之前要非常小心。确保先执行表/数据库备份的先前状态。

请注意何时执行此操作

当 db 上没有其他用户时,或通过锁定表来确保这一点。

回滚注意事项

在事务 db(如 db2)中,回滚可以将 db 状态恢复到事务开始时的状态。在方法 1,3 和 4 中,这是无法实现的,因此如果您需要“恢复到原始状态”的功能,唯一可以确保这一点的选项是方法 nr。2-增加事务日志

于 2013-05-10T09:24:19.923 回答
1
delete from ordpos where orderid in ((select orderid from ordpos where orderid not in (select id from ordhdr) fetch first 40000 rows only));

希望这能解决您的疑问:)

于 2017-01-06T14:04:19.590 回答
0

DB2 不太可能“挂起”——更有可能是在DELETE操作填满事务日志后正在进行回滚。

确保您在每个单独的DELETE语句之后都提交。如果您正在使用+cDB2 CLP 的选项执行脚本,那么请确保COMMIT在每个DELETE.

于 2013-05-08T17:53:43.227 回答
0

删除具有数百万行的数据的最佳做法是在删除之间使用提交。在您的情况下,您可以在每个删除语句之后使用 commit。

提交的作用是清除事务日志并为其他删除操作提供空间来执行。

或者 5 个删除语句使用循环并将删除语句传递给删除,在循环的一次迭代执行一次提交之后,数据库将永远不会挂起,同时您的数据将被删除。

使用这样的东西。

while(count<no of records)
delete from (select * from table fetch fist 50000 records only)
commit;
count= total records- no of records.
于 2013-05-09T05:41:51.000 回答
0

如果 SELECT WHERE FETCH FIRST 10 ROWS ONLY 可以提取几块记录,例如以 10 块为单位,那么您可以将其作为输入提供给另一个脚本,然后删除这些记录。冲洗并重复...

于 2017-06-27T20:51:42.043 回答
-2

为了大家的利益,这里是我关于同一问题的 developerWorks 文章的链接。我尝试了不同的东西,而我在这篇文章中分享的东西对我来说效果很好。

于 2015-06-19T16:40:01.333 回答