我想从特定的 Wikipedia 页面(主要是国家/地区)中提取 Infobox 中的信息。具体来说,如果可能的话,我想在不使用Python
+BeautifulSoup4
或任何其他语言 + 库的情况下实现这一点。我宁愿使用官方 API,因为我注意到不同 Wikipedia 子域的 CSS 标签是不同的(与其他语言一样)。
在如何从 Mediawiki API 的维基百科文章中获取信息框?声明使用以下方法会起作用,对于给定的标题Scary Monsters and Nice Sprites
(
https://en.wikipedia.org/w/api.php?action=query&prop=revisions&rvprop=content&format=xmlfm&titles=Scary%20Monsters%20and%20Nice%20Sprites&rvsection=0
但是,我想Wikimedia
更改了他们的infobox
模板,因为当我运行上述查询时,我得到的只是内容,而不是infobox
. 例如Europäische_Union
,在以下代码段中对 (European_Union) 结果(以及其他)运行查询
{{Infobox Europäische Union}}
<!--{{Infobox Staat}} <- Vorlagen-Parameter liegen in [[Spezial:Permanenter Link/108232313]] -->
不过,它适用于英文版的 Wikipedia。
所以我想从中提取信息框的页面是:http://de.wikipedia.org/wiki/Europäische_Union
这是我正在使用的代码:
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
import lxml.etree
import urllib
title = "Europäische_Union"
params = { "format":"xml", "action":"query", "prop":"revisions", "rvprop":"content", "rvsection":0 }
params["titles"] = "API|%s" % urllib.quote(title.encode("utf8"))
qs = "&".join("%s=%s" % (k, v) for k, v in params.items())
url = "http://de.wikipedia.org/w/api.php?%s" % qs
tree = lxml.etree.parse(urllib.urlopen(url))
revs = tree.xpath('//rev')
print revs[-1].text
我错过了一些非常重要的东西吗?