0

我正在尝试从网站索引网页和 pdf 文档。我正在使用 Nutch 1.9。

我从https://github.com/BayanGroup/nutch-custom-search下载了 nutch-custom-search 插件。该插件很棒,确实让我将选定的 div 与 solr fieds 匹配。

我遇到的问题是,我的网站还包含许多 pdf 文件。我可以看到它们被提取但从未被解析。我查询 solr 时没有 pdf。只是网页。我正在尝试使用 tika 来解析 .PDF(我希望我有正确的想法)

如果在 cygwin 上,我运行 parsechecker,如下所示,它似乎解析 OK:

    $ bin/nutch parsechecker -dumptext -forceAs application/pdf http://www.immunisationscotland.org.uk/uploads/documents/18304-Tuberculosis.pdf 

我不太确定下一步该做什么(请参阅下面的配置)

提取器.xml

    <config xmlns="http://bayan.ir" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://bayan.ir http://raw.github.com/BayanGroup/nutch-custom-search/master/zal.extractor/src/main/resources/extractors.xsd" omitNonMatching="true">
<fields>
    <field name="pageTitleChris" />
    <field name="contentChris" />     
</fields>
<documents>
    <document url="^.*\.(?!pdf$)[^.]+$" engine="css">
        <extract-to field="pageTitleChris">
            <text>
                <expr value="head > title" />
            </text> 

        </extract-to>
        <extract-to field="contentChris">
            <text>
                <expr value="#primary-content" />
            </text> 

        </extract-to>

    </document>
</documents>

在我的 parse-plugins.xml 里面我添加了

    <mimeType name="application/pdf">
       <plugin id="parse-tika" />
    </mimeType>

nutch-site.xml

    <name>plugin.includes</name>
<value>protocol-http|urlfilter-regex|parse-(html|tika|text)|extractor|index-(basic|anchor)|query-(basic|site|url)|indexer-solr|response-(json|xml)|summary-basic|scoring-opic|urlnormalizer-(pass|regex|basic)</value>

<property>
  <name>http.content.limit</name>
  <value>65536666</value>
  <description></description>
</property>


<property>
  <name>extractor.file</name>
  <value>extractor.xml</value>
</property>

帮助将不胜感激,

谢谢

克里斯

4

1 回答 1

0

我认为问题与您的 extractor.xml 文件中的 omitNonMatching="true" 有关。

omitNonMatching="true" 的意思是“不要索引那些在extractor.xml 的任何extracto-to 规则中不匹配的页面”。默认值为假。

于 2014-11-25T13:17:34.327 回答