7

我正在抓取一个网站以将数据导出为语义格式(n3)。但是,我还想对该数据执行一些数据分析,因此将其保存为 csv 格式会更方便。

要以两种格式获取数据,我可以做

scrapy spider -t n3 -o data.n3
scrapy spider -t csv -o data.csv

但是,这会刮掉两次数据,而且我无法承受大量数据。

有没有办法将相同的抓取数据导出为多种格式?(无需多次下载数据)

我发现有一个可以导出为不同格式的抓取数据的中间表示很有趣。但似乎没有办法用scrapy做到这一点。

4

1 回答 1

8

根据我在浏览源代码和文档后的理解,-t选项是指FEED_FORMAT不能有多个值的设置。此外,FeedExporter内置扩展 ( source ) 仅适用于单个导出器。

实际上,考虑在Scrapy 问题跟踪器上提出功能请求

更像是一种解决方法,定义一个管道并使用多个 exporters 开始导出。例如,以下是导出为 CSV 和 JSON 格式的方法:

from collections import defaultdict

from scrapy import signals
from scrapy.exporters import JsonItemExporter, CsvItemExporter


class MyExportPipeline(object):
    def __init__(self):
        self.files = defaultdict(list)

     @classmethod
     def from_crawler(cls, crawler):
         pipeline = cls()
         crawler.signals.connect(pipeline.spider_opened, signals.spider_opened)
         crawler.signals.connect(pipeline.spider_closed, signals.spider_closed)
         return pipeline

    def spider_opened(self, spider):
        csv_file = open('%s_products.csv' % spider.name, 'w+b')
        json_file = open('%s_products.json' % spider.name, 'w+b')

        self.files[spider].append(csv_file)
        self.files[spider].append(json_file)

        self.exporters = [
            JsonItemExporter(json_file),
            CsvItemExporter(csv_file)
        ]

        for exporter in self.exporters:
            exporter.start_exporting()

    def spider_closed(self, spider):
        for exporter in self.exporters:
            exporter.finish_exporting()

        files = self.files.pop(spider)
        for file in files:
            file.close()

    def process_item(self, item, spider):
        for exporter in self.exporters:
            exporter.export_item(item)
        return item
于 2015-06-24T18:02:09.603 回答