问题标签 [ngrep]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tcpdump - ngrep - 反转端口结果
我很好奇 ngrep 是否可以基于端口进行反向匹配?我已经尝试了一些类似的东西:
尽管它说过滤器用于“端口 22”,但它并没有选择任何端口。用谷歌搜索了几天,并没有找到解决方案。任何熟悉 ngrep 的人都可以告诉我这是否可行吗?
python - 如何在 python 中生成另一个进程并捕获输出?
我刚刚学习 Python,但在 PERL 和 PHP 方面有大约 16 年的经验。
我正在尝试获取 ngrep 的输出并使用 Python 将其写入日志文件,同时还跟踪日志文件。我在网上看到了一些示例,但有些示例似乎过时且过时,而其他示例则不鼓励使用 shell=True。
在 perl 中,我只使用类似于以下内容的东西
我已经开始工作了,但 ngrep 没有。我希望能够无限地运行它并在过滤后将流从ngrep输出到日志文件。我无法让 ngrep 的输出显示在标准输出中,所以这就是我所得到的。我希望能够在更新日志文件时看到数据文件尾部,并看到来自 ngrep 的输出。现在我只是使用 bash 来运行以下命令。
谢谢!
这是我到目前为止得到的...
更新 这似乎现在工作。我不知道如何改进它。
linux - ngrep 外机
我有一台将值发送到端口 2712 的机器。我在本地使用:
这向我展示了价值观:
如何从同一 LAN 中的机器监听 192.168.122.103 机器上的同一端口?
linux - Ngrep 多个 pcaps
我将 Moloch 用于 NDR,并将其保存在 10G pcaps 中,不用说还有很多。当我尝试通过 ngrep 解析来自 pcaps 的某些数据时,它只能让我一次解析一个。如果我使用带有通配符的简单 ngrep,我会得到 pcap compile: syntax error。
如果我使用
它抛出了一个预期的“do”命令。抱歉,我确定这是一个简单的问题,但我刚刚开始使用 linux,任何帮助我都会非常感激。
macos - OSX 上的 Ngrep 不起作用?
我什至如何在 mac os x 上安装 ngrep?我尝试使用 brew,但无济于事......当我使用 ngrep 时它给了我错误,但是当我使用 sngrep 时它给了我更多错误):(虽然看起来像是进步)
我能做些什么来解决这个问题?
ngrep - 你如何限制 ngrep 结果的数量?
从手册页似乎没有办法做到这一点。当我ngrep
在一个提供持续流量的端口上运行时,我会得到大量的结果流。我想限制结果的数量,例如可以用grep -m
.
sockets - 未发送 TCP 响应
我们看到这种行为突然没有发送我们的 TCP 响应。即使连接已建立(即我们能够接收请求)
TCP 客户端通过 VPN 连接到服务器。它大部分时间都可以工作,但有时我们看不到任何关于ngrep
假设要发送回服务器的响应的信息。
ngrep 命令
TCP 客户端是 Twisted TCP 客户端。
我尝试 netstat 检查发送队列的大小。
netstat 输出
SEND-Q (0)对我来说没问题
甚至 lsof 输出都提到 QS 为 0
重要说明,当我重新启动 TCP 客户端时,我会看到消息流。
不知道出了什么问题以及数据包发生了什么。
有什么线索吗??
操作系统
CentOS Linux 版本 7.2.1511(核心)
bash - 如何将 ngrep 输出重定向到文件
我在机器上运行 ngrep 来监听请求和响应。如何将其输出重定向到文件?
我正在做这样的事情: -
但是当我 tail -f ngrep_output.txt
在其他屏幕上做的时候,我什么都看不到。
一旦我终止了上述过程,那么只有我可以看到文件中的内容。
那么,看起来它将结果保存在缓冲区中的某个地方?有没有办法可以将我的输出实时重定向到文件?
linux - 管道 sed 不使用 ngrep 输出到文件
我正在使用 ngrep 将一些 tcp 数据包过滤到 STDOUT 中,因为现在将输出(在使用 更改结果之后sed
)记录到文件中变得更加重要。
在标准输出中看起来不错的管道sed
- 但是写入时没有写入内容dump.log
下面是命令:
grep -l -q -W none -i "^POST /somefile.php" tcp and port 80 | sed -e 's/^T/IP/g' >> dump.log
给人的印象是 sed 或 ngrep 会阻止推送内容的过程。
python - 如何**防止** Scrapy Request 下载请求?
我正在为动态网站制作基于 Selenium 的蜘蛛。但我想留在 Scrapy 框架内,因为这个蜘蛛是一个更大的项目的一部分,它利用所有使用相同工作流/命令的蜘蛛。
最简单的做法是,将请求从start_requests()
to传递parse()
并在parse()
.
但是,通过这种方式,我将向网站发出双重请求——一次由 Scrapy 请求,一次由 Selenium 请求。
我想要的是,只将 url 传递给 Selenium in parse()
,下载它,然后进一步解析:
这是首先想到的,但似乎 Scrapy 有一定的局限性,start_requests()
最终必须产生一种Request
对象。如果我这样做,我会收到错误(可以根据要求指定它们)。
所以我想出了另一个想法:使用原来的start_requests()
,因为一个Request
对象不应该下载页面本身,并禁用这样做的下载中间件。但是,即使禁用所有中间件:
当我检查传出请求时ngrep
,我仍然可以看到,Scrapy 还在下载除了 Selenium 之外的远程 url,尽管自定义设置应该已经切断了下载器。
在这种情况下,如何通过 Selenium 只下载一次网址?