问题标签 [standardanalyzer]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
79 浏览

java - Lucene 4 - 如何丢弃索引中的数字项?

在使用Apache Lucene进行索引之前,我正在使用Apache Tika解析 xml 文档。

这是蒂卡的一部分:

我使用带有停用词列表的 StandardAnalyzer 来标记我的文档:

我可以丢弃数字项,因为我不需要它吗?

谢谢你的帮助。

0 投票
1 回答
121 浏览

java - 更改 StandardAnalyzer Lucene

我正在尝试使用 lucene 4.10.3 的 StandardAnalyzer 按标题搜索文档。我从文件中读取了引号,并添加了双引号来构造查询:

问题是,当它读取引用 PHILIPPINES SAYS DEBT PACT "BETTER THAN MEXICO'S lucene 返回此错误

我该如何解决?

谢谢!

0 投票
3 回答
660 浏览

java - Duke - org.apache.lucene.analysis.standard.StandardAnalyzer

https://github.com/larsga/Duke - 我正在使用 Duke - 进行重复数据删除。

我已经设置了 Duke(jar 文件 - 在类路径中添加了 Duke jar 和 lucene jar)..

github 中的示例示例 - https://github.com/larsga/Duke/wiki/SemanticDogfood

然而,同一个 github 中的另一个示例有效 - https://github.com/larsga/Duke/wiki/LinkingCountries

任何人都可以帮忙,..提前谢谢..

0 投票
1 回答
98 浏览

lucene - 在基于 . 用 lucene

想要基于 . , ; 等但是希望保留电子邮件地址、IP 地址等。我如何使用带有 lucence 的分析仪来完成这项任务?我在 stackoverflow 上找到的以下代码不保留电子邮件。任何有关如何使用 lucene 的 StandardAnalyzer 的模式规范功能的文档指针也将有所帮助。非常感谢

0 投票
1 回答
305 浏览

java - Lucene BooleanQuery 错误结果

我创建了一个 Lucene RAMDirectory 来收集来自不同来源的数据并使它们可以快速搜索。我花了很多时间来了解不同的分析器和索引策略,但在某些情况下查询结果不是预期的。

这是一个演示类:

如果我搜索“ox”、“gray fox”或“-(frankenstein)”,代码运行良好。但我没有“DR-(弗兰肯斯坦)”的结果。我不知道我做错了什么。所以欢迎任何建议。

0 投票
1 回答
534 浏览

elasticsearch - 如何使用没有小写字母的 Elasticsearch 标准分析器

我试图使用“标准”分析器的预设在弹性搜索中创建一个分析器,但有一个变化——没有小写的单词。

我试过像这样链接空白和标准分析器:

但这并没有给出所需的结果。有没有办法只覆盖分析器的小写部分但零售标准分析器的所有现有功能?

提前致谢。

0 投票
1 回答
107 浏览

elasticsearch - 如何在弹性搜索中为标准小写分析器创建和添加值

在过去的几天里,我一直带着这个在房子周围尝试各种顺序的东西,但不知道为什么它不起作用。

我正在尝试使用与“标准”分析器相同但在存储记录时保留大写字符的分析器在 Elasticsearch 中创建索引。

我创建我的分析器和索引如下:

}

然后像这样添加两条记录进行测试...

添加第二条记录...

使用 /upper/_settings 给出以下结果:

但是当我使用以下查询进行搜索时,我仍然得到两个匹配项!大写和小写都必须意味着在我存储记录时未应用分析器。

像这样搜索...

提前致谢!