所以我用 Python 和它的一些库制作了一个网络爬虫……它进入给定的站点并从该站点的链接中获取所有链接和文本。我已经过滤了结果,所以我只打印该站点上的外部链接。
代码如下所示:
import urllib
import re
import mechanize
from bs4 import BeautifulSoup
import urlparse
import cookielib
from urlparse import urlsplit
from publicsuffix import PublicSuffixList
link = "http://www.ananda-pur.de/23.html"
newesturlDict = {}
baseAdrInsArray = []
br = mechanize.Browser()
cj = cookielib.LWPCookieJar()
br.set_cookiejar(cj)
br.set_handle_robots(False)
br.set_handle_equiv(False)
br.set_handle_redirect(True)
br.set_handle_refresh(mechanize._http.HTTPRefreshProcessor(), max_time=1)
br.addheaders = [('User-agent', 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.1) Gecko/2008071615 Fedora/3.0.1-1.fc9 Firefox/3.0.1')]
page = br.open(link, timeout=10)
for linkins in br.links():
newesturl = urlparse.urljoin(linkins.base_url, linkins.url)
linkTxt = linkins.text
baseAdrIns = linkins.base_url
if baseAdrIns not in baseAdrInsArray:
baseAdrInsArray.append(baseAdrIns)
netLocation = urlsplit(baseAdrIns)
psl = PublicSuffixList()
publicAddress = psl.get_public_suffix(netLocation.netloc)
if publicAddress not in newesturl:
if newesturl not in newesturlDict:
newesturlDict[newesturl,linkTxt] = 1
if newesturl in newesturlDict:
newesturlDict[newesturl,linkTxt] += 1
newesturlCount = sorted(newesturlDict.items(),key=lambda(k,v):(v,k),reverse=True)
for newesturlC in newesturlCount:
print baseAdrInsArray[0]," - ",newesturlC[0],"- count: ", newesturlC[1]
并打印出这样的结果:
http://www.ananda-pur.de/23.html - ('http://www.yogibhajan.com/', 'http://www.yogibhajan.com') - count: 1
http://www.ananda-pur.de/23.html - ('http://www.kundalini-yoga-zentrum-berlin.de/', 'http://www.kundalini-yoga-zentrum-berlin.de') - count: 1
http://www.ananda-pur.de/23.html - ('http://www.kriteachings.org/', 'http://www.sat-nam-rasayan.de') - count: 1
http://www.ananda-pur.de/23.html - ('http://www.kriteachings.org/', 'http://www.kriteachings.org') - count: 1
http://www.ananda-pur.de/23.html - ('http://www.kriteachings.org/', 'http://www.gurudevsnr.com') - count: 1
http://www.ananda-pur.de/23.html - ('http://www.kriteachings.org/', 'http://www.3ho.de') - count: 1
我的问题是那些具有不同文本的相同链接。根据打印示例,给定站点有 4 个链接http://www.kriteachings.org/
,但如您所见,这 4 个链接中的每一个都有不同的text
:第一个是http://www.sat-nam-rasayan.de
,第二个是http://www.kriteachings.org
,第三个是http://www.gurudevsnr.com
,第四个是http://www.3ho.de
我想得到打印结果,我可以看到给定页面上有多少时间链接,但如果有不同的链接文本,它只会附加到来自同一链接的其他文本。为了达到这个例子的目的,我想得到这样的打印:
http://www.ananda-pur.de/23.html - http://www.yogibhajan.com/ - http://www.yogibhajan.com - count: 1
http://www.ananda-pur.de/23.html - http://www.kundalini-yoga-zentrum-berlin.de - http://www.kundalini-yoga-zentrum-berlin.de - count: 1
http://www.ananda-pur.de/23.html - http://www.kriteachings.org/ - http://www.sat-nam-rasayan.de, http://www.kriteachings.org, http://www.gurudevsnr.com, http://www.3ho.de - count: 4
解释:
(第一个链接是给定页面,第二个是建立链接,第三个链接是该建立链接的实际文本,第四项是该链接在给定站点上出现的次数)
我的主要问题是我不知道如何比较?!,排序?!或者告诉程序这是同一个链接,并且它应该附加不同的文本。
如果没有太多代码,这样的事情是否可能?我是python nooby,所以我有点迷路了..
欢迎任何帮助或建议