TL;DR 使用缓冲区来不使用大量内存。
我相信,当我们考虑处理非常大的文件对内存的影响时,我们就找到了问题的症结所在。我们不希望这个坏小子通过 2 GB 的内存来处理 2 GB 的文件,因此,正如pasztorpisti指出的那样,我们必须分块处理这些更大的文件!
import sys
import hashlib
# BUF_SIZE is totally arbitrary, change for your app!
BUF_SIZE = 65536 # lets read stuff in 64kb chunks!
md5 = hashlib.md5()
sha1 = hashlib.sha1()
with open(sys.argv[1], 'rb') as f:
while True:
data = f.read(BUF_SIZE)
if not data:
break
md5.update(data)
sha1.update(data)
print("MD5: {0}".format(md5.hexdigest()))
print("SHA1: {0}".format(sha1.hexdigest()))
我们所做的是在使用 hashlib 方便的花花公子更新方法时,我们以 64kb 的块更新了这个坏男孩的哈希值。这样一来,我们使用的内存比一次对这个家伙进行哈希处理所需的 2gb 少得多!
您可以使用以下方法进行测试:
$ mkfile 2g bigfile
$ python hashes.py bigfile
MD5: a981130cf2b7e09f4686dc273cf7187e
SHA1: 91d50642dd930e9542c39d36f0516d45f4e1af0d
$ md5 bigfile
MD5 (bigfile) = a981130cf2b7e09f4686dc273cf7187e
$ shasum bigfile
91d50642dd930e9542c39d36f0516d45f4e1af0d bigfile
希望有帮助!
所有这些都在右侧的链接问题中进行了概述:Get MD5 hash of big files in Python
附录!
一般来说,在编写 python 时,它有助于养成遵循pep-8的习惯。例如,在 python 中,变量通常用下划线分隔,而不是驼峰式。但这只是风格,没有人真正关心这些事情,除了那些不得不阅读糟糕风格的人......这可能是你从现在开始阅读这段代码。