我一直在练习使用 Mechanize 和 Nokogiri 编写一些 Ruby 爬虫。例如在这里(但是,似乎在发出一定数量的请求(在这种情况下约为 14000)后,我收到一条错误消息,说我有一个连接超时错误:
/var/lib/gems/1.8/gems/net-http-persistent-2.5.1/lib/net/http/persistent/ssl_reuse.rb:90:in `initialize': 连接超时 - connect(2) (Errno ::ETIMEDOUT)
我在网上搜索了很多,但我能得到的最好答案是我向服务器发出了太多请求。有没有办法通过节流或其他方法来解决这个问题?