我目前正在使用斯坦福 CoreNLP 工具从文本中提取三元组。我一直在处理相对较小的文本,但我需要让它与更大的文本一起工作。此外,我需要在具有平均内存量的普通机器上进行这项工作。关于如何减少内存负载的任何建议?也许将文本分成更小的部分(但这会搞砸共指......)?
谢谢
我目前正在使用斯坦福 CoreNLP 工具从文本中提取三元组。我一直在处理相对较小的文本,但我需要让它与更大的文本一起工作。此外,我需要在具有平均内存量的普通机器上进行这项工作。关于如何减少内存负载的任何建议?也许将文本分成更小的部分(但这会搞砸共指......)?
谢谢
蛮力方法:使用堆外内存(使用磁盘空间作为 Java 程序的内存),请参阅此线程或转到此处了解有关 BigMemory 库的更多信息。慢,但它可能是你正在寻找的。