我有一个 python 脚本,它递归地遍历一个指定的目录,并对它找到的每个文件进行校验和。然后它会写入一个日志文件,其中列出了所有文件路径及其 md5 校验和。
因此,对于 50,000 个 15 MB 的文件,这需要很长时间。但是,我的计算机可用的资源比它实际使用的要多得多。如何调整我的方法,以便脚本使用更多资源以更快地执行?
例如,我可以将我的文件列表分成三份并为每份运行一个线程,从而给我 3 倍的运行时间吗?
我对线程不是很舒服,我希望有人不介意为我的情况做个例子。
这是我的顺序 md5 循环的代码:
for (root, dirs, files) in os.walk(root_path):
for filename in files:
file_path = root + "/" + filename
md5_pairs.append([file_path, md5file(file_path, 128)])
提前感谢您的帮助!