我对 awk 相当陌生,我正在编写一个脚本来读取文件处理它的内容,然后根据结果将结果附加到几个文件中。该脚本适用于包含大约 100 行的文件,但适用于包含 125k 行的文件。我很困惑我在这里做事的方式是否有问题,因为我已经看到 awk 可以很好地处理较大的文件。
这是我的代码:FileSplitting.awk
BEGIN { print "Splitting file ";} { print NR; r=int($2/1024); if(r>5){ print $0 >> "testFile";} if(r<=5){ print $0 >> "testFile2";} } END { print "Done"; }
我正在调用这样的脚本:
awk -F"," -f FileSplitting.awk test.csv