我几乎没有使用 cygwin 和 UNIX 的经验,但需要使用它从更大的文件集中提取大量数据......昨天我得到了一些帮助来完成这个简短的脚本,但是(在运行了 ~7 -8 小时)脚本简单地写入同一个输出文件 22 次。至少这就是我认为发生的事情。
我现在已将代码更改为此(见下文),但如果知道如何正确完成此操作的人可以在我浪费另外 8 小时之前告诉我它是否可能工作,那将是非常棒的......
for chr in {1..22}
do
zcat /cygdrive/g/data/really_long_filename$chr | sed '/^#/d' | cut -f1-3 >> db_to_rs_$chr
done
我希望它读取文件 1..22,删除以 # 开头的行,并将第 1 到 3 列发送到以相同数字 1..22 结尾的文件
昨天最后一部分只是...-f1-3 >> db_to_rs
我怀疑只是重写了该文件 22 次?
非常感谢您的帮助~L