我是斯坦福核心 NLP 的新手。我想用它来从英语、德语、法语的文本中分割句子。这是哪门课?提前谢谢。
问问题
11503 次
4 回答
8
对于处理此问题的较低级别的类,您可以查看tokenizer 文档。在 CoreNLP 级别,您可以只使用 Annotator 的“tokenize,ssplit”。
于 2012-09-17T07:27:40.937 回答
3
你看过斯坦福 NLP 主页上的文档吗?大约一半的时候,它提供了一个几乎与您正在寻找的东西完全相同的例子。该示例不仅拆分了句子,还拆分了单词。
于 2012-09-10T18:33:37.740 回答
1
为什么不使用BreakIterator
from java.text
package... 来拆分句子、行、词、字符...等
请参阅此链接:
http://docs.oracle.com/javase/6/docs/api/java/text/BreakIterator.html
于 2012-09-10T18:01:19.930 回答
0
Properties properties = new Properties();
properties.setProperty("annotators", "tokenize, ssplit, parse");
StanfordCoreNLP pipeline = new StanfordCoreNLP(properties);
List<CoreMap> sentences = pipeline.process(SENTENCES)
.get(CoreAnnotations.SentencesAnnotation.class);
// I just gave a String constant which contains sentences.
for (CoreMap sentence : sentences) {
System.out.println(sentence.toString());
}
于 2016-04-05T20:30:08.133 回答