问题标签 [md5sum]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
perl - 使用 perl 打印选项卡时格式不正确
我正在尝试使用正则表达式模式替换来用制表符替换 md5sum 输出中的所有空格,并翻转正常的 md5sum 输出(fingerprint<space>/path/to/file)
,使其首先打印 /path/to/file,然后在输出中打印 md5 指纹到 STDOUT。我让它工作得很好,但由于某种原因,并不是我所有的空格都转换为制表符,正如您在此示例输出中看到的那样(参见第 4 项的 ps 项):
代码
我创建了一个包含 4 个名为 a、b、c 和 d 的空白文本文件的示例目录,并运行了我的 perl 脚本,它运行良好。是什么赋予了?
** 测试目录中的良好输出*
arrays - BASH:使用 md5sum 处理重复项
在我的目录中找到重复项时,我设法将哈希与文件路径分开。我的下一个任务是只打印重复项(例如:3 个文件,2 个重复项)。
到目前为止,我所做的是将输出放在这样的数组中:
arr=( $(find $1 -type f -print0 | xargs -0 md5sum | sort | uniq -w32 --all-repeated=separate) )
我需要计算每个文件(不是原始文件)的重复数量,获取每个文件的大小并分别列出它们的路径。
我试图在我的 arr 中做一个 for 循环,但我无法比较哈希,它给了我value too great for base
错误。
任何提示都会很棒。
解决了
python - 我的python脚本中的ftp下载错误
当我运行这个程序时,\我在 ftp.retrbinary('RETR' + fname, localfile.write, 1024) 行出现以下错误
我不知道出了什么问题。请帮我解决
perl - 如果 md5sum 返回 FAILED 则脚本响应
假设我有一个使用 md5sum 检查蜜罐位置的脚本。
输出如下所示:
如果出现“失败”,您将从哪里开始尝试识别输出并可能触发系统的某种响应?
我之前曾尝试使用 PERL 尝试解析日志文件,但我的尝试通常由于某种原因而惨败。
这可能不是解决此问题的正确方法,但我想将此脚本放入每分钟运行的 cronjob 中。我有一些人告诉我,一个 inotify 工作或脚本(我不熟悉这个)会比这样做更好。
有什么建议么?
- - 编辑
我制作了另一个脚本来调用上面的脚本并将输出发送到文件。然后,新脚本在“FAILED”上运行 grep -q,如果它发现任何东西,它会发出警报(待定警报将是什么)。
tcl - 为什么 tcl md5:md5 结果与 md5sum 结果不同
以下 tcl 代码生成与 md5sum 可执行文件不同的结果
结果是:
在 UNIX 外壳中:
结果是:
为什么结果不一样?
bash - Using md5sum for speeding up dd disk imaging, sample script: Good idea?
I was thinking of ways to have my laptop HDD backed up safely, and still being able to put the backup rapidly in use if needed. My method would be the following: I would buy an 2.5" HDD of the same size with USB to SATA cable and clone the internal to it, when disaster strikes, I would just have to swap the HDD in the laptop for the other one and I would be good to go again. However, I would like to avoid writing 500GB each time I want to backup my HDD, especially when I know that a fair part of it (+/- 80GB) is rarely written to, this is where the following md5sum/dd script comes to the rescue, I hope:
Now, the question part:
A) With running this, would I miss some part of the disk? Do you see some flaws?
B) Could I win some time compared to the 500GB read/write?
C) Obviously I potentially write less to the target disk. Will I improve the lifetime of that disk?
D) I was thinking of leaving count to 1, and increasing the block size.Is this good idea/bad idea?
E) Would this same script work with an image file as output?
Not being very fluent in programming, there should be plenty of room for improvement, any tips?
Thank you all...
perl - Perl 将多个文件中的 MD5 / SHA2 总和组合成一个 MD5 / SHA2 总和
下面是递归生成目录或子目录下单个文件的 MD5 / SHA2 和的代码。
上面代码的输出如下所示。
更新了代码以支持 sha256sum 生成。
现在我想从这些 MD5 / SHA2 和作为输入生成一个组合的 MD5 / SHA2 和。
regex - 使用 sed 添加空格
我需要在 md5sum 和文件名之间添加一个空格。所以我目前的输出是:
我需要它是:
我对正则表达式/sed 感到一团糟,但这就是我所拥有的,我有点难过:
输出是:
任何帮助表示赞赏。
c++ - 如何在 C++ 中检查多个文件的重复项
我需要通过文件路径比较 5 个文件:a、b、c、d、e 并查找重复项(如果存在)。如何通过文件的 md5sum 比较在 C++ 中做到这一点?
c++ - 如何在 C++ 中获取文件的 MD5 哈希值
我需要在目录中找到重复的文件,但不知道如何获取文件的 md5sum ..
如何通过 C++ 中的路径获取文件的 MD5 哈希?