我正在使用 Stormcrawler 1.15、ElasticSearch 7.5,并按照本教程启动并运行 SC:https ://www.youtube.com/watch?v=KTerugU12TY
在我的 crawler-conf.yaml 中,我有:
# indexer.md.filter: "someKey=aValue"
indexer.url.fieldname: "url"
indexer.text.fieldname: "content"
indexer.canonical.name: "canonical"
indexer.md.mapping:
- parse.title=title
- parse.keywords=keywords
- parse.description=description
- domain=domain
这表明我已经有了描述和关键字,但是到目前为止,我在“内容”索引的文档中获得了以下字段:url、内容、域、标题。例如:
{
"_index": "content",
"_type": "_doc",
"_id": "c31104689b7ab4e8152f70b755049e7060da3457f06d64993667df28f7be6811",
"_score": 1,
"_source": {
"content": "Startseite Gesetze / Verordnungen Aktualitätendienst [...]",
"url": "http://www.gesetze-im-internet.de/markeng_8bek_00-03-27/index.html",
"domain": "gesetze-im-internet.de",
"title": "MarkenG§8Bek 00-03-27 - nichtamtliches Inhaltsverzeichnis"
}
}
但我想获得更多信息,例如关键字、描述、创建日期、抓取日期。甚至可能是一个总结。
我怎样才能得到这些?
我可以使用此爬虫获得哪些其他值/字段?
我怎样才能在 ES 中获得它们?
我听说有一种方法可以让 SC 与 tika 一起更好地解析 html 和 pdf,这样也许我可以从爬取的页面中获取更多的数据和元数据。但我仍然不知道该怎么做。这方面的指南/教程会很好。