我正在抓取的网站具有设置 cookie 并在后端检查它以确保启用 js 的 javascript。从 html 代码中提取 cookie 很简单,但是在 scrapy 中设置它似乎是个问题。所以我的代码是:
from scrapy.contrib.spiders.init import InitSpider
class TestSpider(InitSpider):
...
rules = (Rule(SgmlLinkExtractor(allow=('products/./index\.html', )), callback='parse_page'),)
def init_request(self):
return Request(url = self.init_url, callback=self.parse_js)
def parse_js(self, response):
match = re.search('setCookie\(\'(.+?)\',\s*?\'(.+?)\',', response.body, re.M)
if match:
cookie = match.group(1)
value = match.group(2)
else:
raise BaseException("Did not find the cookie", response.body)
return Request(url=self.test_page, callback=self.check_test_page, cookies={cookie:value})
def check_test_page(self, response):
if 'Welcome' in response.body:
self.initialized()
def parse_page(self, response):
scraping....
我可以看到内容在 中可用check_test_page
,cookie 运行良好。但它甚至从来没有得到,parse_page
因为没有正确的 cookie 的 CrawlSpider 看不到任何链接。有没有办法在抓取会话期间设置 cookie?还是我必须使用 BaseSpider 并将 cookie 手动添加到每个请求中?
一个不太理想的选择是通过scrapy配置文件以某种方式设置cookie(值似乎永远不会改变)。那可能吗?