我有一种从文件创建 MessageDigest(哈希)的方法,我需要对很多文件(> = 100,000)执行此操作。我应该使用于从文件中读取的缓冲区有多大以最大限度地提高性能?
大多数人都熟悉基本代码(为了以防万一,我将在这里重复):
MessageDigest md = MessageDigest.getInstance( "SHA" );
FileInputStream ios = new FileInputStream( "myfile.bmp" );
byte[] buffer = new byte[4 * 1024]; // what should this value be?
int read = 0;
while( ( read = ios.read( buffer ) ) > 0 )
md.update( buffer, 0, read );
ios.close();
md.digest();
最大化吞吐量的理想缓冲区大小是多少?我知道这是系统依赖的,我很确定它的操作系统、文件系统和硬盘驱动器依赖,并且可能还有其他硬件/软件混合在一起。
(我应该指出,我对 Java 有点陌生,所以这可能只是一些我不知道的 Java API 调用。)
编辑:我不提前知道这将用于哪种系统,所以我不能假设很多。(出于这个原因,我使用 Java。)
编辑:上面的代码缺少诸如 try..catch 之类的东西以使帖子更小