2

我需要从网站的所有页面中收集所有“标题”。
站点具有 HTTP 基本身份验证配置。
没有身份验证,我接下来会做:

require 'anemone'
Anemone.crawl("http://example.com/") do |anemone|
  anemone.on_every_page do |page|
    puts page.doc.at('title').inner_html rescue nil
  end
end

但是我对 HTTP Basic Auth 有一些问题...
如何使用 HTTP Basic Auth 从站点收集标题?
如果我尝试使用 "Anemone.crawl(" http://username:password@example.com/ ")" 那么我只有首页标题,但其他链接有http://example.com/样式并且我收到 401错误。

4

1 回答 1

5

HTTP Basic Auth 通过 HTTP 标头工作。愿意访问受限资源的客户端必须提供身份验证标头,如下所示:

Authorization: Basic QWxhZGRpbjpvcGVuIHNlc2FtZQ==

它包含名称和密码,Base64 编码。更多信息在 Wikipedia 文章:Basic Access Authentication中。

我用谷歌搜索了一下,没有找到让 Anemone 接受自定义请求标头的方法。也许你会有更多的运气。

但是我发现了另一个声称可以做到这一点的爬虫:Messie。也许你应该试一试

更新

这里是 Anemone 设置其请求标头的地方:Anemone::HTTP。确实,那里没有定制。你可以猴子补丁它。像这样的东西应该可以工作(把它放在你的应用程序的某个地方):

module Anemone
  class HTTP
    def get_response(url, referer = nil)
      full_path = url.query.nil? ? url.path : "#{url.path}?#{url.query}"

      opts = {}
      opts['User-Agent'] = user_agent if user_agent
      opts['Referer'] = referer.to_s if referer
      opts['Cookie'] = @cookie_store.to_s unless @cookie_store.empty? || (!accept_cookies? && @opts[:cookies].nil?)

      retries = 0
      begin
        start = Time.now()
        # format request
        req = Net::HTTP::Get.new(full_path, opts)
        response = connection(url).request(req)
        finish = Time.now()
        # HTTP Basic authentication
        req.basic_auth 'your username', 'your password' # <<== tweak here
        response_time = ((finish - start) * 1000).round
        @cookie_store.merge!(response['Set-Cookie']) if accept_cookies?
        return response, response_time
      rescue Timeout::Error, Net::HTTPBadResponse, EOFError => e
        puts e.inspect if verbose?
        refresh_connection(url)
        retries += 1
        retry unless retries > 3
      end
    end
  end
end

显然,您应该为方法调用提供自己的值usernamepassword参数。basic_auth是的,它快速、肮脏和硬编码。但有时你没有时间以适当的方式做事。:)

于 2013-05-30T21:34:15.877 回答