我很惊讶 lxml.html 在默认情况下解析 HTML 时会留下微不足道的空白。我也很惊讶我找不到任何明显的方法让它不这样做。
Python 2.7.3 (default, Apr 10 2013, 06:20:15)
[GCC 4.6.3] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> import lxml.etree
>>> parser = lxml.etree.HTMLParser(remove_blank_text=True)
>>> html = lxml.etree.HTML("<p> Hello World </p>", parser=parser)
>>> print lxml.etree.tostring(html)
<html><body><p> Hello World </p></body></html>
我希望结果会是这样的:
>>> print lxml.etree.tostring(html)
<html><body><p>Hello World</p></body></html>
BeautifulSoup4 对 html5lib 解析器做同样的事情:
>>> from bs4 import BeautifulSoup
>>> soup = BeautifulSoup("<p> Hello World </p>", "html5lib")
>>> soup.p
<p> Hello World </p>
经过一番研究,我发现HTML5的解析规范并没有指定去除连续的空白;而是在渲染时完成。所以我知道从技术上讲,这些库中的任何一个都没有责任执行相同的行为,但它似乎很有用,我很惊讶他们都没有它。
有人可以证明我错了吗?
编辑:
我知道如何使用正则表达式删除空格——这不是我的问题。(我也知道如何搜索关于正则表达式的问题。)
我的问题与无关紧要的空白有关,其重要性由呈现 HTML 的标准定义。我怀疑 1-liner regex 是否可以正确实施此标准。让我们甚至不再深入研究正则表达式与 CFG 的辩论,好吗?
编辑2:
如果上下文不清楚,我对 HTML 感兴趣,而不是 XHTML/XML。空白在 HTML 中确实有一些重要的规则,但是这些规则是在渲染器中实现的,而不是在解析器中。我明白这一点,正如我最初的帖子所证明的那样。我的问题是,是否有人在 DOM 级别而不是渲染级别运行的库中实现了 HTML 渲染器的空白逻辑?