我有一个相当大的文件,我正在尝试理解。我使用 du -ah 命令生成了一个包含大量文件的整个目录结构的列表。结果基本上以纯文本格式列出了特定文件夹下的所有文件夹以及文件夹内的后续文件。
例如:
4.0G ./REEL_02/SCANS/200113/001/Promise Pegasus/BMB 10/RED EPIC DATA/R3D/18-09-12/CAM B/B119_0918NO/B119_0918NO.RDM/B119_C004_0918XJ.RDC/B119_C004_0918XJ_003.R3D
3.1G ./REEL_02/SCANS/200113/001/Promise Pegasus/BMB 10/RED EPIC DATA/R3D/18-09-12/CAM B/B119_0918NO/B119_0918NO.RDM/B119_C004_0918XJ.RDC/B119_C004_0918XJ_004.R3D
15G ./REEL_02/SCANS/200113/001/Promise Pegasus/BMB 10/RED EPIC DATA/R3D/18-09-12/CAM B/B119_0918NO/B119_0918NO.RDM/B119_C004_0918XJ.RDC
是否有任何我可以运行的命令或我可以使用的实用程序来帮助我确定是否有多个相同文件名的记录(通常是每行的最后 16 个字符 + 扩展名)以及是否存在这样的重复条目,将整个路径(整行)写出到另一个文本文件,这样我就可以使用脚本或其他东西从我的 NAS 中找到并移出重复文件。
请让我知道,因为当纯文本文件本身为 5.2Mb 时,这样做会非常有压力:)