我正在尝试编写一个 python 程序,它可以帮助我自动从不同的网站获取一些新闻。目前我正在使用 python3 和 beautifulsoup4 和 urllib3 来获取远程页面并解析它。
当我尝试从此页面读取文本时出现问题,因为它们包含非 ascii 字符,例如 À à é ó...等等...
我试图在检索页面后将其从 utf-8 解码以将其放入变量中,然后将其写入文件中但没有成功......即使在阅读了解决此问题的不同方法之后,我也无法弄清楚一个可行的解决方案。
我想知道你们中是否有人遇到过我同样的情况..
这是我的代码
# -*- coding: utf-8 -*-
from bs4 import BeautifulSoup
import urllib3
http = urllib3.PoolManager()
req = http.request('GET', 'http://www.....')
page = req.data.decode('utf-8')
soup = BeautifulSoup(page)
elements = soup.find_all('div', class_='content')
fp = open('results.xml', 'a')
for element in elements:
link = element.find('a')
descr = element.find('div', class_='description')
v_link = u'%s' % link.get('href')
v_description = u'%s' % descr.text
xml = "<news>\n"
xml = xml+ " <description>"+ v_description+ "</description>\n"
xml = xml+ " <page_link>"+ v_link+ "</page_link>\n"
xml = xml+ "</news>\n"
fp.write(xml+ '\n')
#END FOR LOOP
fp.close()