情况:
我有一个大文件(数百万行),其中包含来自几个小时网络捕获的 IP 地址和端口,每行一个 ip/端口。行的格式如下:
ip.ad.dre.ss[:port]
期望的结果:
我在记录时收到的每个数据包都有一个条目,因此有很多重复的地址。我希望能够通过某种 shell 脚本运行它,该脚本能够将其减少为格式的行
ip.ad.dre.ss[:port] count
其中count
是该特定地址(和端口)的出现次数。无需做任何特殊工作,将不同的端口视为不同的地址。
到目前为止,我正在使用此命令从日志文件中抓取所有 IP 地址:
grep -o -E [0-9]+\.[0-9]+\.[0-9]+\.[0-9]+(:[0-9]+)? ip_traffic-1.log > ips.txt
由此,我可以使用一个相当简单的正则表达式来刮掉我的地址发送的所有 IP 地址(我不在乎)
然后我可以使用以下内容提取唯一条目:
sort -u ips.txt > intermediate.txt
我不知道如何通过排序以某种方式汇总行数。