我目前在 import.io 中设置了一个爬虫,它可以爬取大量页面(数万页)。一旦这个爬虫完成,我尝试查看数据只是发现它已经全部丢失,我认为这是由于数量庞大。有没有办法设置我的爬虫,以便在收集数据时将数据实时写入我的硬盘驱动器上的文件?
问问题
112 次
我目前在 import.io 中设置了一个爬虫,它可以爬取大量页面(数万页)。一旦这个爬虫完成,我尝试查看数据只是发现它已经全部丢失,我认为这是由于数量庞大。有没有办法设置我的爬虫,以便在收集数据时将数据实时写入我的硬盘驱动器上的文件?