0

我正在浏览一个 URL 列表,并使用 Mechanize/BeautifulSoup 用我的脚本打开它们。

但是我收到此错误:

File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/httplib.py", line 718, in _set_hostport
    raise InvalidURL("nonnumeric port: '%s'" % host[i+1:])
httplib.InvalidURL: nonnumeric port: ''

这发生在这行代码中:

page = mechanize.urlopen(req)

以下是我的代码。任何洞察我做错了什么?许多 URL 都有效,当它遇到某些 URL 时,我会收到此错误消息,所以不知道为什么。

from mechanize import Browser
from BeautifulSoup import BeautifulSoup
import re, os
import shutil
import mechanize
import urllib2
import sys
reload(sys)
sys.setdefaultencoding("utf-8")

mech = Browser()
linkfile = open ("links.txt")
urls = []
while 1:
    url = linkfile.readline()
    urls.append("%s" % linkfile.readline())
    if not url:
        break

for url in urls:
    if "http://" or "https://" not in url: 
        url = "http://" + url
    elif "..." in url:
    elif ".pdf" in url:
        #print "this is a pdf -- at some point we should save/log these"
        continue
    elif len (url) < 8:
        continue
    req = mechanize.Request(url)
    req.add_header('Accept', 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8')
    req.add_header('User-Agent', 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.8; rv:17.0) Gecko/20100101 Firefox/17.0')
    req.add_header('Accept-Language', 'Accept-Language  en-US,en;q=0.5')
    try:
        page = mechanize.urlopen(req)
    except urllib2.HTTPError, e:
        print "there was an error opening the URL, logging it"
        print e.code
        logfile = open ("log/urlopenlog.txt", "a")
        logfile.write(url + "," + "couldn't open this page" + "\n")
        pass
4

1 回答 1

1

我认为这段代码

if "http://" or "https://" not in url: 

没有做你想做的(或你认为它会做的)。

if "http://"

将始终评估为 true,因此您的 URL 永远不会添加前缀。您需要将其(例如)重写为:

if "https://" not in url and "http://" not in url:

此外,现在我开始测试你的作品:

urls = []
while 1:
    url = linkfile.readline()
    urls.append("%s" % linkfile.readline())
    if not url:
        break

这实际上确保您的 URL 文件被不正确地读取并且每第二行被读取,您可能希望这样读取:

urls = []
while 1:
    url = linkfile.readline()
    if not url:
        break
    urls.append("%s" % url)

这样做的原因是 - 你调用linkfile.readline()了两次,强制它读取 2 行并且只将每 2 行保存到你的列表中。

此外,您希望该if子句在附加之前,以防止列表末尾出现空条目。

但是您的特定 URL 示例对我有用。更多信息,我可能需要你的链接文件。

于 2013-01-01T16:22:46.027 回答