我正在开发一个需要将现有 Oracle blob 迁移到文件中的项目。要读取的环境是共享的 Oracle 10gR2 服务器。目前我有一个使用 UTL_FILE 的脚本。但是,这个过程非常缓慢。提取 25 GB 的样本数据大约需要 3 小时。要移动的实际数据大约为 1 TB。我需要帮助/建议来显着调整这一点。
这是我的过程:
- 打开游标以获取 blob id 和名称列表
- 开始循环遍历每个 blob
- 使用自定义存储过程 BLOB2FILE 提取 blob(从网站上获取并稍作修改)
这是代码:
create or replace
PROCEDURE BLOB2File(
lngBlobID IN NUMBER,
sFileName IN VARCHAR2,
sDir IN VARCHAR2)
AS
iFileLen INTEGER;
iLineLen INTEGER := 32000; -- max line size for utl_file
vStart NUMBER := 1;
vBlob BLOB;
l_output utl_file.file_type;
my_vr RAW(32000);
iTmp INTEGER;
BEGIN
-- get blob details
LOG_IT('Entered. Blob Id: ' || lngBlobID || ', File Name: ' || sFileName || ', Directory: ' || sDir);
SELECT blobData,
lengthb(blobData)
INTO vBlob,
iFileLen
FROM blobTable
WHERE id = lngBlobID;
LOG_IT('Acquired the blob. Blob size: ' || TO_CHAR(iFileLen));
l_output := utl_file.fopen(sDir, sFileName,'wb', iLineLen);
vStart := 1;
iTmp := iFileLen;
-- if small enough for a single write
IF iFileLen < iLineLen THEN
utl_file.put_raw(l_output,vBlob);
utl_file.fflush(l_output);
ELSE -- write in pieces
vStart := 1;
WHILE vStart < iFileLen AND iLineLen > 0
LOOP
dbms_lob.read(vBlob,iLineLen,vStart,my_vr);
utl_file.put_raw(l_output,my_vr);
utl_file.fflush(l_output);
-- set the start position for the next cut
vStart := vStart + iLineLen;
-- set the end position if less than 32000 bytes
iTmp := iTmp - iLineLen;
IF iTmp < iLineLen THEN
iLineLen := iTmp;
END IF;
END LOOP;
END IF;
utl_file.fclose(l_output);
LOG_IT('Exited');
EXCEPTION
WHEN OTHERS THEN
LOG_IT('**ERROR** ' || SQLERRM, SQLCODE, DBMS_UTILITY.FORMAT_ERROR_BACKTRACE);
END;
LOG_IT 是记录到表的存储过程。那里不应该有任何重大打击。我尝试通过使用 BULK FETCH 而不是普通的 FETCH 来优化第 1 步。然而,它并没有产生任何显着的结果。
任何人都可以提出任何改进的想法,或者更好的方法来解决这个问题吗?