如何找到唯一行并从文件中删除所有重复项?我的输入文件是
1
1
2
3
5
5
7
7
我希望结果是:
2
3
sort file | uniq
不会做这项工作。将显示所有值 1 次
uniq
有您需要的选项:
-u, --unique
only print unique lines
$ cat file.txt
1
1
2
3
5
5
7
7
$ uniq -u file.txt
2
3
使用如下:
sort < filea | uniq > fileb
cat
您还可以使用命令通过管道打印出“文件”中的唯一值sort
和uniq
cat file | sort | uniq -u
虽然sort
需要 O(n log(n)) 时间,但我更喜欢使用
awk '!seen[$0]++'
awk '!seen[$0]++'
是 的缩写,如果不为零awk '!seen[$0]++ {print}'
,则打印 line(=$0) 。seen[$0]
它需要更多空间,但只需要 O(n) 时间。
uniq -u 一直让我发疯,因为它不起作用。
因此,如果你有 python(大多数 Linux 发行版和服务器已经有它),而不是那样:
#Python
#Assuming file has data on different lines
#Otherwise fix split() accordingly.
uniqueData = []
fileData = open('notUnique.txt').read().split('\n')
for i in fileData:
if i.strip()!='':
uniqueData.append(i)
print uniqueData
###Another option (less keystrokes):
set(open('notUnique.txt').read().split('\n'))
仅供参考,来自 uniq 手册页:
“注意:'uniq' 不会检测重复的行,除非它们是相邻的。您可能希望先对输入进行排序,或者在不使用 'uniq' 的情况下使用 'sort -u'。此外,比较遵循 'LC_COLLATE' 指定的规则。”
调用的正确方法之一是:# sort nonUnique.txt | 独特的
$ cat x
3
1
2
2
2
3
1
3
$ uniq x
3
1
2
3
1
3
$ uniq -u x
3
1
3
1
3
$ sort x | uniq
1
2
3
您可以使用:
sort data.txt| uniq -u
对数据进行排序并按唯一值过滤
uniq -u < file
将完成这项工作。
我觉得这更容易。
sort -u input_filename > output_filename
-u
代表独特。
uniq
如果你的文件是/可以排序的,应该没问题,如果由于某种原因你不能对文件进行排序,你可以使用awk
:
awk '{a[$0]++}END{for(i in a)if(a[i]<2)print i}'
sort -d "file name" | uniq -u
这对我来说是类似的。如果没有安排,请使用它。如果已排列,您可以删除排序
这是我第一次尝试
skilla:~# uniq -u all.sorted
76679787
76679787
76794979
76794979
76869286
76869286
......
做了 cat -e all.sorted 之后
skilla:~# cat -e all.sorted
$
76679787$
76679787 $
76701427$
76701427$
76794979$
76794979 $
76869286$
76869286 $
每第二行都有一个尾随空格:(删除所有尾随空格后它起作用了!
谢谢你