我已经构建了一个爬虫,它必须在大约 5M 页面上运行(通过增加 url ID),然后解析包含我需要的信息的页面。
在使用在 url (200K) 上运行的算法并保存好结果和坏结果后,我发现我浪费了很多时间。我可以看到有一些返回的减数可以用来检查下一个有效的 url。
你可以很快地看到减数(少数几个第一个“好 ID”的小例子) -
510000011 # +8
510000029 # +18
510000037 # +8
510000045 # +8
510000052 # +7
510000060 # +8
510000078 # +18
510000086 # +8
510000094 # +8
510000102 # +8
510000110 # etc'
510000128
510000136
510000144
510000151
510000169
510000177
510000185
510000193
510000201
在爬取了大约 200K 的 url 之后,我只得到了 14K 的好结果8(顶部返回减数)等'。
这是功能 -
def checkNextID(ID):
global numOfRuns, curRes, lastResult
while ID < lastResult:
try:
numOfRuns += 1
if numOfRuns % 10 == 0:
time.sleep(3) # sleep every 10 iterations
if isValid(ID + 8):
parseHTML(curRes)
checkNextID(ID + 8)
return 0
if isValid(ID + 18):
parseHTML(curRes)
checkNextID(ID + 18)
return 0
if isValid(ID + 7):
parseHTML(curRes)
checkNextID(ID + 7)
return 0
if isValid(ID + 17):
parseHTML(curRes)
checkNextID(ID + 17)
return 0
if isValid(ID+6):
parseHTML(curRes)
checkNextID(ID + 6)
return 0
if isValid(ID + 16):
parseHTML(curRes)
checkNextID(ID + 16)
return 0
else:
checkNextID(ID + 1)
return 0
except Exception, e:
print "somethin went wrong: " + str(e)
基本上做的是 -checkNextID(ID) 正在获取我知道的第一个 id,其中包含减 8 的数据,因此第一次迭代将匹配第一个“if isValid”子句(isValid(ID + 8) 将返回 True)。
lastResult是一个保存最后一个已知 url id 的变量,所以我们将运行直到 numOfRuns
isValid()是一个函数,它获取一个 ID + 一个被减数,如果 url 包含我需要的内容,则返回 True,并将 url 的汤对象保存到名为 - ' curRes ' 的全局变量中,如果 url 不包含,则返回 False '不包含我需要的数据。
parseHTML是一个函数,它获取汤对象 (curRes),解析我需要的数据,然后将数据保存到 csv,然后返回 True。
如果 isValid() 返回 True,我们将调用 parseHTML() 然后尝试检查下一个 ID+被减数(通过调用 checkNextID(ID + subtrahends),如果它们都不会返回我正在寻找的我会将其增加 1 并再次检查,直到找到下一个有效 url。
你可以在这里看到其余的代码
运行代码后,我得到了大约 950~ 的好结果,突然引发了一个异常 -
“出了点问题:调用 Python 对象时超出了最大递归深度”
我可以在 WireShark 上看到 scipt 卡在 id - 510009541 上(我以 510000003 开始我的脚本),脚本尝试使用该 ID 获取 url 几次,然后我注意到错误并停止它。
看到我得到了相同的结果,但比我的旧脚本快 25 到 40 倍,HTTP 请求更少,这非常精确,我只错过了 1 个结果来获得 1000 个好的结果,这是我发现的,我真的很兴奋不可能朗姆酒 5M 次,当我的新脚本在 5-10 分钟内给我 960~ 结果时,我让我的旧脚本运行了 30 个小时并获得了 14-15K 的结果。
我阅读了有关堆栈限制的信息,但是对于我试图在 Python 中实现的算法必须有一个解决方案(我不能回到我的旧“算法”,它永远不会结束)。
谢谢!