3

我正在使用一些包(webmining、sentiment、openNLP)来提取一些关于股票 JPM 的句子,但运行时出现以下错误:

eval 中的错误(expr、envir、enclos):找不到函数“sentDetect”

这是我使用的代码,我确保安装了所有软件包。我检查了“语料库”变量,它是“包含 20 个文本文档的语料库”。我还使用“library(help=openNLP)”列出了包“openNLP”中的所有函数,但在列表中没有找到“sentDetect”。

library(XML)
library(tm)
library(tm.plugin.webmining)
library(tm.plugin.sentiment)
library(NLP)
library(openNLP)

stock <-"JPM"
corpus <- WebCorpus(GoogleFinanceSource(stock))

sentences <- sentDetect(corpus)

这里是运行环境。它可能与 R 3.0.1 版本(对于 openNLP 来说太新)或 64 位 Windows 系统有关吗?

R 版本 3.0.1 (2013-05-16) -- “Good Sport” 版权所有 (C) 2013 统计计算平台的 R 基金会:x86_64-w64-mingw32/x64(64 位)

非常感谢。

伟宏

4

2 回答 2

4

try using 'qdap' package

library("qdap")

then use function 'sent_detect'

sent_detect(xyz)
于 2014-11-16T19:25:47.557 回答
3

sentDetect 功能已被替换。请参阅?Maxent_Sent_Token_Annotator标记句子的新方法:

require("NLP")
require("openNLP")
## Some text.
s <- paste(c("Pierre Vinken, 61 years old, will join the board as a ",
             "nonexecutive director Nov. 29.\n",
             "Mr. Vinken is chairman of Elsevier N.V., ",
             "the Dutch publishing group."),
           collapse = "")
s <- as.String(s)

sent_token_annotator <- Maxent_Sent_Token_Annotator()
sent_token_annotator
a1 <- annotate(s, sent_token_annotator)
a1
## Extract sentences.
s[a1]
于 2013-10-15T08:32:39.000 回答