28

我想在 python 中使用线程来下载大量网页,并通过以下代码在其中一个网站中使用队列。

它放置了一个无限的while循环。每个线程是否连续运行而没有结束,直到所有线程都完成?我是不是错过了什么。

#!/usr/bin/env python
import Queue
import threading
import urllib2
import time

hosts = ["http://yahoo.com", "http://google.com", "http://amazon.com",
"http://ibm.com", "http://apple.com"]

queue = Queue.Queue()

class ThreadUrl(threading.Thread):
  """Threaded Url Grab"""
  def __init__(self, queue):
    threading.Thread.__init__(self)
    self.queue = queue

  def run(self):
    while True:
      #grabs host from queue
      host = self.queue.get()

      #grabs urls of hosts and prints first 1024 bytes of page
      url = urllib2.urlopen(host)
      print url.read(1024)

      #signals to queue job is done
      self.queue.task_done()

start = time.time()
def main():

  #spawn a pool of threads, and pass them queue instance 
  for i in range(5):
    t = ThreadUrl(queue)
    t.setDaemon(True)
    t.start()

  #populate queue with data   
  for host in hosts:
    queue.put(host)

  #wait on the queue until everything has been processed     
  queue.join()

main()
print "Elapsed Time: %s" % (time.time() - start)
4

3 回答 3

20

将线程设置为daemon线程会导致它们在 main 完成时退出。但是,是的,您是正确的,因为只要queueelse 中有东西会阻塞,您的线程就会连续运行。

文档解释了这个细节队列文档

python Threading 文档daemon也解释了该部分。

当没有活着的非守护线程时,整个 Python 程序退出。

因此,当队列被清空并在queue.join解释器退出时恢复时,线程将死亡。

编辑:更正默认行为Queue

于 2012-11-20T20:25:38.190 回答
8

你的脚本对我来说很好,所以我假设你在问发生了什么,这样你就可以更好地理解它。是的,您的子类将每个线程置于无限循环中,等待将某些内容放入队列中。当发现某物时,它会抓住它并做它的事情。然后,关键部分,它通过 queue.task_done 通知队列它已完成,并继续等待队列中的另一个项目。

虽然所有这些都在工作线程中进行,但主线程正在等待(加入)直到队列中的所有任务都完成,这将是线程发送 queue.task_done 标志的次数与消息相同的次数队列 。此时主线程完成并退出。由于这些是恶魔线程,它们也会关闭。

这是很酷的东西,线程和队列。它是 Python 真正优秀的部分之一。你会听到各种关于 Python 中的线程如何被 GIL 等搞砸的东西。但是如果你知道在哪里使用它们(比如在这种情况下使用网络 I/O),它们真的会为你加快速度。一般规则是,如果您受 I/O 限制,请尝试和测试线程;如果您受 CPU 限制,线程可能不是一个好主意,也许可以尝试使用进程。

祝你好运,

麦克风

于 2012-11-20T20:33:16.497 回答
-2

在这种情况下,我认为没有Queue必要。仅使用Thread

import threading, urllib2, time

hosts = ["http://yahoo.com", "http://google.com", "http://amazon.com",
"http://ibm.com", "http://apple.com"]

class ThreadUrl(threading.Thread):
    """Threaded Url Grab"""
    def __init__(self, host):
        threading.Thread.__init__(self)
        self.host = host

    def run(self):
        #grabs urls of hosts and prints first 1024 bytes of page
        url = urllib2.urlopen(self.host)
        print url.read(1024)

start = time.time()
def main():
    #spawn a pool of threads
    for i in range(len(hosts)):
        t = ThreadUrl(hosts[i])
        t.start()

main()
print "Elapsed Time: %s" % (time.time() - start)
于 2012-11-20T20:30:31.050 回答