我想使用 Mechanize python 库来跟踪网站中的某些链接,但我感兴趣的唯一链接是<div>
标签中的链接。这个问题是相关的,但是他们使用lxml
我不熟悉的解析器来实现它,我更喜欢使用 BeautifulSoup。
我已经使用 BeautifulSoup 找到了相关链接,但我不知道如何使用 Mechanize(或其他东西)来跟踪这些链接。有没有办法将字符串传递给 Mechanize 以便它跟随它?
我想使用 Mechanize python 库来跟踪网站中的某些链接,但我感兴趣的唯一链接是<div>
标签中的链接。这个问题是相关的,但是他们使用lxml
我不熟悉的解析器来实现它,我更喜欢使用 BeautifulSoup。
我已经使用 BeautifulSoup 找到了相关链接,但我不知道如何使用 Mechanize(或其他东西)来跟踪这些链接。有没有办法将字符串传递给 Mechanize 以便它跟随它?
简单open()
就足够了:
br.open('http://google.com')
import mechanize
response = mechanize.urlopen("http://example.com/")
content = response.read() #The content is the code of the page (html)
或者,如果您想添加诸如标题之类的内容:
import mechanize
request = mechanize.Request("http://example.com/")
response = mechanize.urlopen(request)
content = response.read() #The content is the code of the page (html)