我正在尝试使用 JSoup 限制下载页面/链接的大小,如下所示(Scala 代码):
val document = Jsoup.connect(theURL).get();
我只想获取给定页面的前几 KB,然后停止尝试下载。如果有一个非常大的页面(或者theURL
是一个不是 html 的链接,并且是一个大文件),我不想花时间下载其余的。
我的用例是 IRC 机器人的页面标题搜索器。
奖金问题:
有什么理由Jsoup.connect(theURL).timeout(3000).get();
不让大文件超时?如果有人粘贴诸如永无止境的音频流或大型 ISO 之类的东西(这可以通过在不同线程中获取 URL 标题(或使用 Scala 演员并在那里超时)来解决),它最终会导致机器人退出,但是当我认为timeout()
应该完成相同的最终结果时,对于一个非常简单的机器人来说似乎有点矫枉过正)。