2

下面的代码在输出中打印 hi 后卡住了。你能检查一下这有什么问题吗?如果该站点是安全的并且我需要一些特殊的身份验证?

from bs4 import BeautifulSoup
import requests

print('hi')
rooturl='http://www.hoovers.com/company-information/company-search.html'
r=requests.get(rooturl);
print('hi1')
soup=BeautifulSoup(r.content,"html.parser");
print('hi2')
print(soup)
4

2 回答 2

4

无法从美丽的汤中读取 html 页面

为什么你遇到这个问题是网站认为你是机器人,他们不会向你发送任何东西。他们甚至挂断了连接让你永远等待。

你只是模仿浏览器的请求,然后服务器会认为你不是机器人。

添加标头是处理此问题的最简单方法。但是你不应该User-Agent只通过一些东西(比如这次)。请记住复制浏览器的请求并通过测试删除无用的元素。如果你很懒,直接使用浏览器的headers,但是上传文件的时候千万不要复制所有的headers

from bs4 import BeautifulSoup
import requests

rooturl='http://www.hoovers.com/company-information/company-search.html'
with requests.Session() as se:
    se.headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36",
        "Accept-Encoding": "gzip, deflate",
        "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8",
        "Accept-Language": "en"
    }
    resp = se.get(rooturl)
print(resp.content)
soup = BeautifulSoup(resp.content,"html.parser")
于 2018-12-15T07:31:43.307 回答
1

遇到了和你一样的问题。只是坐在那里。我尝试通过添加用户代理,它很快就拉了它。不知道为什么会这样。

from bs4 import BeautifulSoup
import requests


headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36'}

print('hi')
rooturl='http://www.hoovers.com/company-information/company-search.html'
r=requests.get(rooturl, headers=headers)
print('hi1')
soup=BeautifulSoup(r.content,"html.parser");
print('hi2')
print(soup)

编辑:太奇怪了。现在它不再适合我了。它首先没有工作。然后它做到了。现在没有了。但是使用 Selenium 还有另一个潜在的选择。

from bs4 import BeautifulSoup
import requests
from selenium import webdriver

browser = webdriver.Chrome()
browser.get('http://www.hoovers.com/company-information/company-search.html')

r = browser.page_source
print('hi1')
soup=BeautifulSoup(r,"html.parser")
print('hi2')
print(soup)

browser.close() 
于 2018-12-14T15:35:54.557 回答