我正在尝试编写一个shell脚本来消除重复文件,但我很早就卡住了......
find $1 -type f -exec md5sum {} + > /tmp/$$
find $1 -type f -exec md5sum {} + | sort | awk '{print $1}' | uniq -d > \
/tmp/$$.spec
此时,/tmp/PID 保存 MD5(空格)文件名,而 /tmp/PID.spec 保存重复的哈希值。如何在 /tmp/PID 中搜索每个重复的哈希?
cat /tmp/$$ | grep /tmp/$$.spec
不返回任何结果,但我认为这将逐行遍历我的完整文件,并且只返回与 .spec 文件中的哈希匹配的行。显然不是。