我已经使用 NUTCH 1.2 成功爬取了一个站点。现在我想将它与 solr 3.1 集成。问题是当我发出命令 $ bin/nutch solrindex localhost:8080/solr/ crawl/crawldb crawl/linkdb cra wl/segments/* 时发生错误。我正在附上我的 nutch 日志
请帮我解决这个问题
错误的请求
请求: //localhost:8080/solr/update?wt=javabin&version=2 at org.apache.solr.client.solrj.impl.CommonsHttpSolrServer.request(CommonsHttpSolrServer.java:436) at org.apache.solr.client.solrj .impl.CommonsHttpSolrServer.request(CommonsHttpSolrServer.java:245) 在 org.apache.solr.client.solrj.request.AbstractUpdateRequest.process(AbstractUpdateRequest.java:105) 在 org.apache.solr.client.solrj.SolrServer.add (SolrServer.java:49) 在 org.apache.nutch.indexer.solr.SolrWriter.close(SolrWriter.java:75) 在 org.apache.nutch.indexer.IndexerOutputFormat$1.close(IndexerOutputFormat.java:48) 在 org .apache.hadoop.mapred.ReduceTask.runOldReducer(ReduceTask.java:474) 在 org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:411) 在 org.apache.hadoop.mapred.LocalJobRunner$Job.run (LocalJobRunner.java:216) 2013-07-08 17:38:47,577 错误 solr.SolrIndexer - java.io.IOException:作业失败!