我正在使用 clucene 构建搜索索引,并且我想确保包含任何攻击性术语的文档永远不会被添加到索引中。使用带有停止列表的 StandardAnalyzer 还不够好,因为攻击性文档仍然会被添加,并且会被返回用于非攻击性搜索。
相反,我希望建立一个文档,然后检查它是否包含任何令人反感的词,然后仅在没有的情况下添加它。
干杯!
我正在使用 clucene 构建搜索索引,并且我想确保包含任何攻击性术语的文档永远不会被添加到索引中。使用带有停止列表的 StandardAnalyzer 还不够好,因为攻击性文档仍然会被添加,并且会被返回用于非攻击性搜索。
相反,我希望建立一个文档,然后检查它是否包含任何令人反感的词,然后仅在没有的情况下添加它。
干杯!