1

我已经使用 NUTCH 1.2 成功抓取了一个站点。现在我想将它与 solr 3.6 集成。问题是当我发出命令
$ bin/nutch solrindex //localhost:8080/solr/ crawl/crawldb crawl/linkdb crawl/segments/*时发生错误

 SolrIndexer: starting at 2013-07-08 14:52:27
java.io.IOException: Job failed!

请帮我解决这个问题

这是我的 nutch 日志

java.lang.RuntimeException: Invalid version (expected 2, but 60) or the data in not in 'javabin' format
    at org.apache.solr.common.util.JavaBinCodec.unmarshal(JavaBinCodec.java:99)
    at org.apache.solr.client.solrj.impl.BinaryResponseParser.processResponse(BinaryResponseParser.java:41)
    at org.apache.solr.client.solrj.impl.CommonsHttpSolrServer.request(CommonsHttpSolrServer.java:469)
    at org.apache.solr.client.solrj.impl.CommonsHttpSolrServer.request(CommonsHttpSolrServer.java:249)
    at org.apache.solr.client.solrj.request.AbstractUpdateRequest.process(AbstractUpdateRequest.java:105)
    at org.apache.solr.client.solrj.SolrServer.add(SolrServer.java:69)
    at org.apache.solr.client.solrj.SolrServer.add(SolrServer.java:54)
    at org.apache.nutch.indexer.solr.SolrWriter.close(SolrWriter.java:75)
    at org.apache.nutch.indexer.IndexerOutputFormat$1.close(IndexerOutputFormat.java:48)
    at org.apache.hadoop.mapred.ReduceTask.runOldReducer(ReduceTask.java:474)
    at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:411)
    at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:216)
2013-07-08 15:17:39,539 ERROR solr.SolrIndexer - java.io.IOException: Job f
4

1 回答 1

0

这主要是 Nutch 使用的 Solrj 版本 jar 与您尝试集成的 Solr 3.6 之间的 javabin 不兼容。

您需要更新 Solrj jar 并重新生成作业。

按照论坛中提到的步骤进行操作。

于 2013-07-08T10:14:32.763 回答