1

无论我粘贴 2000 个 url、1000、500 还是任何爬虫都能完美地从批量 url 返回数据但然后从末尾停止少数 url 并挂起....因为没有取消/停止按钮我必须退出程序。

示例,粘贴 250 个 url - 在 247 处停止,粘贴 2000 个 url - 在 1986 处停止

4

1 回答 1

0

杆,

这通常是由于处理期间发生的超时。您是否尝试在批量提取功能中复制粘贴 URL?我们最近发布了批量提取的错误处理,该过程将在 1' 后超时,您将能够重试失败的那些。

见这里的例子:http: //support.import.io/knowledgebase/articles/510065-bulk-extract-tutorial

于 2015-08-25T22:22:39.427 回答