我有一个多线程脚本,当它连接到服务器时偶尔会冻结,但服务器不会发回任何东西。Netstat 显示一个连接的 tcp 套接字。即使我设置了 TIMEOUT,也会发生这种情况。超时在非线程脚本中工作正常。这是一些示例代码。
def xmlscraper(url):
htmlpage = StringIO.StringIO()
rheader = StringIO.StringIO()
c = pycurl.Curl()
c.setopt(pycurl.USERAGENT, "user agent string")
c.setopt(pycurl.CONNECTTIMEOUT, 60)
c.setopt(pycurl.TIMEOUT, 120)
c.setopt(pycurl.FOLLOWLOCATION, 1)
c.setopt(pycurl.WRITEFUNCTION, htmlpage.write)
c.setopt(pycurl.HEADERFUNCTION, rheader.write)
c.setopt(pycurl.HTTPHEADER, ['Expect:'])
c.setopt(pycurl.NOSIGNAL, 1)
c.setopt(pycurl.URL, url)
c.setopt(pycurl.HTTPGET, 1)
pycurl.global_init(pycurl.GLOBAL_ALL)
for url in urllist:
t = threading.Thread(target=xmlscraper, args=(url,))
t.start()
任何帮助将不胜感激!几个星期以来一直试图解决这个问题。
编辑: urllist 有大约 10 个 url。有多少似乎并不重要。
edit2:我刚刚在下面测试了这段代码。我使用了一个休眠 100 秒的 php 脚本。
import threading
import pycurl
def testf():
c = pycurl.Curl()
c.setopt(pycurl.CONNECTTIMEOUT, 3)
c.setopt(pycurl.TIMEOUT, 6)
c.setopt(pycurl.NOSIGNAL, 1)
c.setopt(pycurl.URL, 'http://xxx.xxx.xxx.xxx/test.php')
c.setopt(pycurl.HTTPGET, 1)
c.perform()
t = threading.Thread(target=testf)
t.start()
t.join()
该代码中的 Pycurl 似乎正确超时。所以我想这与网址的数量有关?吉尔?
编辑3:
我认为这可能与 libcurl 本身有关,因为有时当我检查脚本 libcurl 仍然连接到服务器数小时后。如果 pycurl 正确超时,则套接字将被关闭。