1

我可以使用Elasticsearch File System Crawler将 pdf 文件索引到本地 Elasticsearch 。默认情况下,fscrawler 设置具有端口、主机和方案参数,如下所示。

{
"name" : "job_name2",
"fs" : {
"url" : "/tmp/es",
"update_rate" : "15m",
"excludes" : [ "~*" ],
"json_support" : false,
"filename_as_id" : false,
"add_filesize" : true,
"remove_deleted" : true,
"add_as_inner_object" : false,
"store_source" : false,
"index_content" : true,
"attributes_support" : false,
"raw_metadata" : true,
"xml_support" : false,
"index_folders" : true,
"lang_detect" : false,
"continue_on_error" : false,
"pdf_ocr" : true,
"ocr" : {
  "language" : "eng"
}
},
 "elasticsearch" : {
"nodes" : [ {
  "host" : "127.0.0.1",
  "port" : 9200,
  "scheme" : "HTTP"
} ],
"bulk_size" : 100,
"flush_interval" : "5s"
},
"rest" : {
"scheme" : "HTTP",
"host" : "127.0.0.1",
"port" : 8080,
"endpoint" : "fscrawler"
}
}

但是,我很难使用它来索引 AWS elasticsearch 服务,因为要索引到 AWS elasticsearch,我必须提供 AWS_ACCESS_KEY、AWS_SECRET_KEY、区域和服务,如此所述。有关如何将 pdf 文件索引到 AWS elasticsearch 服务的任何帮助是高度赞赏。

4

1 回答 1

0

FSCrawler 尚不支持提供AWS_ACCESS_KEYAWS_SECRET_KEY. 可能值得在 FSCrawler 中打开一个问题?

也就是说,支持https://cloud.elastic.co,但使用“登录名/密码”。有关详细信息,请参阅文档

于 2020-06-10T15:42:23.900 回答