我需要帮助修复管道抓取代码中的关键部分。
我在 scrapy 中使用这个 MySQL 管道(来自http://snippets.scrapy.org/snippets/33/):
class SQLStorePipeline(object):
def __init__(self):
self.dbpool = adbapi.ConnectionPool('MySQLdb', db='mydb',
user='myuser', passwd='mypass', cursorclass=MySQLdb.cursors.DictCursor,
charset='utf8', use_unicode=True)
def process_item(self, item, spider):
# run db query in thread pool
query = self.dbpool.runInteraction(self._conditional_insert, item)
query.addErrback(self.handle_error)
return item
def _conditional_insert(self, tx, item):
# create record if doesn't exist.
# all this block run on it's own thread
# START CRITICAL SECTION
some_critical_code_here
# STOP CRITICAL SECTION
tx.execute("select * from websites where link = %s", (item['link'][0], ))
result = tx.fetchone()
if result:
log.msg("Item already stored in db: %s" % item, level=log.DEBUG)
else:
tx.execute(\
"insert into websites (link, created) "
"values (%s, %s)",
(item['link'][0],
datetime.datetime.now())
)
log.msg("Item stored in db: %s" % item, level=log.DEBUG)
def handle_error(self, e):
log.err(e)
一切正常。
如您所见,我已经知道代码中的关键部分在哪里。但是我对python真的很陌生,不知道如何使用一些锁或类似的东西来防止多个线程进入关键部分。
你能帮我么?如果您可以向我发送进入和离开我可以在此代码中使用的关键部分的代码,那就太好了。
谢谢各位。