0

我尝试提取页面的某些部分。我使用解析器 HtmlCleaner,它会删除所有标签。是否有一些设置可以保存所有 html 标签?或者也许是更好的方法来提取这部分代码,使用其他东西?

我的代码:

static final String XPATH_STATS = "//div[@class='text']/p/";

// config cleaner properties
HtmlCleaner htmlCleaner = new HtmlCleaner();
CleanerProperties props = htmlCleaner.getProperties();
props.setAllowHtmlInsideAttributes(false);
props.setAllowMultiWordAttributes(true);
props.setRecognizeUnicodeChars(true);
props.setOmitComments(true);
props.setTransSpecialEntitiesToNCR(true);


// create URL object
URL url = new URL(BLOG_URL);
// get HTML page root node
TagNode root = htmlCleaner.clean(url);


Object[] statsNode = root.evaluateXPath(XPATH_STATS);
for (Object tag : statsNode) {
    stats =  stats + tag.toString().trim();
}

return stats;

感谢nikhil.thakkar!我通过 JSON 做到这一点。该代码可能会帮助某人:

    URL url2 = new URL(BLOG_URL);
    Document doc2 = Jsoup.parse(url2, 3000);
    Element masthead = doc2.select("div.main_text").first();
    String linkOuterH = masthead.outerHtml(); 
4

1 回答 1

0

您可以使用 jSoup 解析器。更多信息:http: //jsoup.org/

于 2013-05-19T21:59:12.597 回答