我正在尝试从网站索引网页和 pdf 文档。我正在使用 Nutch 1.9。
我从https://github.com/BayanGroup/nutch-custom-search下载了 nutch-custom-search 插件。该插件很棒,确实让我将选定的 div 与 solr fieds 匹配。
我遇到的问题是,我的网站还包含许多 pdf 文件。我可以看到它们被提取但从未被解析。我查询 solr 时没有 pdf。只是网页。我正在尝试使用 tika 来解析 .PDF(我希望我有正确的想法)
如果在 cygwin 上,我运行 parsechecker,如下所示,它似乎解析 OK:
$ bin/nutch parsechecker -dumptext -forceAs application/pdf http://www.immunisationscotland.org.uk/uploads/documents/18304-Tuberculosis.pdf
我不太确定下一步该做什么(请参阅下面的配置)
提取器.xml
<config xmlns="http://bayan.ir" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://bayan.ir http://raw.github.com/BayanGroup/nutch-custom-search/master/zal.extractor/src/main/resources/extractors.xsd" omitNonMatching="true">
<fields>
<field name="pageTitleChris" />
<field name="contentChris" />
</fields>
<documents>
<document url="^.*\.(?!pdf$)[^.]+$" engine="css">
<extract-to field="pageTitleChris">
<text>
<expr value="head > title" />
</text>
</extract-to>
<extract-to field="contentChris">
<text>
<expr value="#primary-content" />
</text>
</extract-to>
</document>
</documents>
在我的 parse-plugins.xml 里面我添加了
<mimeType name="application/pdf">
<plugin id="parse-tika" />
</mimeType>
nutch-site.xml
<name>plugin.includes</name>
<value>protocol-http|urlfilter-regex|parse-(html|tika|text)|extractor|index-(basic|anchor)|query-(basic|site|url)|indexer-solr|response-(json|xml)|summary-basic|scoring-opic|urlnormalizer-(pass|regex|basic)</value>
<property>
<name>http.content.limit</name>
<value>65536666</value>
<description></description>
</property>
<property>
<name>extractor.file</name>
<value>extractor.xml</value>
</property>
帮助将不胜感激,
谢谢
克里斯