2

嗨,我正在研究 scrapy 以获取一些 html 页面,

我已经编写了我的蜘蛛,并且我已经从文件中的页面中获取了所需的数据spider.py,并且在我的pipeline.py文件中,我想将所有数据写入一个csv file以蜘蛛的名称动态创建的文件,下面是我的pipeline.py代码

管道.py:

from scrapy import log
from datetime import datetime


class examplepipeline(object):

    def __init__(self):
        dispatcher.connect(self.spider_opened, signal=signals.spider_opened)
        dispatcher.connect(self.spider_closed, signal=signals.spider_closed)

    def spider_opened(self, spider):
        log.msg("opened spider  %s at time %s" % (spider.name,datetime.now().strftime('%H-%M-%S')))
        self.exampleCsv = csv.writer(open("%s(%s).csv"% (spider.name,datetime.now().strftime("%d/%m/%Y,%H-%M-%S")), "wb"),
                   delimiter=',', quoting=csv.QUOTE_MINIMAL)
        self.exampleCsv.writerow(['Listing Name', 'Address','Pincode','Phone','Website'])           

    def process_item(self, item, spider):
        log.msg("Processsing item " + item['title'], level=log.DEBUG)
        self.exampleCsv.writerow([item['listing_name'].encode('utf-8'),
                                    item['address_1'].encode('utf-8'),
                                    [i.encode('utf-8') for i in item['pincode']],
                                    item['phone'].encode('utf-8'),
                                    [i.encode('utf-8') for i in item['web_site']]
                                    ])
        return item 


    def spider_closed(self, spider):
        log.msg("closed spider %s at %s" % (spider.name,datetime.now().strftime('%H-%M-%S')))

结果:

--- <exception caught here> ---
  File "/usr/lib64/python2.7/site-packages/twisted/internet/defer.py", line 133, in maybeDeferred
    result = f(*args, **kw)
  File "/usr/lib/python2.7/site-packages/Scrapy-0.14.3-py2.7.egg/scrapy/xlib/pydispatch/robustapply.py", line 47, in robustApply
    return receiver(*arguments, **named)
  File "/home/local/user/example/example/pipelines.py", line 19, in spider_opened
    self.examplecsv = csv.writer(open("%s(%s).csv"% (spider.name,datetime.now().strftime("%d/%m/%Y,%H-%M-%S")), "wb"),
exceptions.IOError: [Errno 2] No such file or directory: 'example(27/07/2012,10-30-40).csv'

这里实际上蜘蛛的名字是example

我不明白上面的代码有什么问题,它应该使用蜘蛛名称动态创建 csv 文件,但是显示上面提到的错误,谁能告诉我那里发生了什么............

4

2 回答 2

1

问题在于文件名中的正斜杠(目录分隔符)。不允许。尝试在日期中使用其他字符。

更多信息在这里 http://www.linuxquestions.org/questions/linux-software-2/forward-slash-in-filenames-665010/

此链接有助于获取您想要的格式 如何在 Python 中以常规格式打印日期?

>>> import datetime
>>> datetime.date.today()
datetime.date(2012, 7, 27)
>>> str(datetime.date.today())
'2012-07-27'

在您的代码中使用它

open("%s(%s).csv"% (spider.name,datetime.now().strftime("%d-%m-%Y:%H-%M-%S"))
于 2012-07-27T05:34:18.693 回答
0

正如Kamal指出的那样,当前的问题是您创建的文件名中存在正斜杠。Kamal 的解决方案有效,但我不会使用 Kamal 建议的方法来解决这个问题,但是:

open("%s(%s).csv"% (spider.name, datetime.now().replace(microsecond=0).isoformat())

这里主要是使用.isoformat()将其放入 ISO 8601 格式:

YYYY-MM-DDTHH:MM:SS.mmmmmm

它的优点是可以按时间顺序递增排序。.replace(microsecond=0)调用是删除微秒信息,在这种情况下,输出.mmmmm中将不存在尾随.isoformat().replace()如果您想保留微秒信息,您可以挂断电话。当我放弃微秒时,我编写其余的应用程序以防止两个调用创建同一个文件。

此外,您可以删除自定义__init__并重命名spider_openedopen_spider,spider_closedclose_spider. open_spider当蜘蛛打开和蜘蛛关闭时, Scrapy 会自动调用close_spider。你不必挂在信号上。文档早在 Scrapy 0.7 就提到了这些方法。

于 2015-06-01T12:24:57.807 回答