0

我目前正在使用斯坦福 CoreNLP 工具从文本中提取三元组。我一直在处理相对较小的文本,但我需要让它与更大的文本一起工作。此外,我需要在具有平均内存量的普通机器上进行这项工作。关于如何减少内存负载的任何建议?也许将文本分成更小的部分(但这会搞砸共指......)?

谢谢

4

1 回答 1

0

蛮力方法:使用堆外内存(使用磁盘空间作为 Java 程序的内存),请参阅此线程转到此处了解有关 BigMemory 库的更多信息。慢,但它可能是你正在寻找的。

于 2011-07-01T21:35:10.877 回答