我写了一个解析一些网页的python-daemon。但有时由于某些页面与解析器不兼容而出现错误。
实际上的问题是:当错误没有停止时,如何使脚本继续工作?如果可能,将所有错误记录在日志文件中。
谢谢。
我的部分代码:
# row - array of links
for row in result:
page_html = getPage(row['url'])
self.page_data = row
if page_html != False:
self.deletePageFromIndex(row['id'])
continue
parser.mainlink = row['url']
parser.feed(page_html)
links = parser.links # get links from page
words = wordParser(page_html); # words from page
# insert data to DB
self.insertWords(words)
self.insertLinks(links)
# print row['url'] + ' parsed. sleep... '
self.markAsIndexed(row['id'])
sleep(uniform(1, 3)) # sleep script