1

我目前正在使用 Scrapinghub 的 Scrapy Cloud 来托管我的 12 个蜘蛛(和 12 个不同的项目)。

我想要一个文件夹,其中包含所有 12 个蜘蛛都使用的函数,但不确定在每个蜘蛛中没有 1 个函数文件夹的情况下实现它的最佳方法是什么。

我正在考虑在同一个项目下托管所有蜘蛛,在蜘蛛连接到的云中创建一个私有包或自己托管 ScrapyD,以便我可以引用这些模块。

有没有人偶然发现这一点,你的解决方案是什么?

4

0 回答 0