2

问题:如何计算和编码每个主题中单词的频率?我的目标是从每个主题创建“词云”。

PS>我对wordcloud没有问题。

从代码中,

  burnin <- 4000  #We do not collect this.
  iter <- 4000
  thin <- 500
  seed <-list(2017,5,63,100001,765)
  nstart <- 5
  best <- TRUE
  #Number of topics: 
  k <- 4
  LDA_results <-LDA(DTM,k, method="Gibbs", control=list(nstart=nstart,
                           seed = seed, best=best, 
                           burnin = burnin, iter = iter, thin=thin))

谢谢(我尽量使问题尽可能简洁,所以如果您需要更多详细信息,我可以添加更多。)

4

2 回答 2

3

如果你想为每个主题创建一个词云,你想要的是每个主题的热门词,即每个主题最可能生成的词。这个概率称为beta; 这是每个主题每个单词的概率。这个概率 beta 越高,从该主题生成该词的概率就越高。

您可以使用from tidytextbeta从 LDA 主题模型中获取整洁数据框中的概率。tidy让我们看一个示例数据集并仅使用两个主题来拟合模型。

library(tidyverse)
library(tidytext)
library(topicmodels)

data("AssociatedPress")
ap_lda <- LDA(AssociatedPress, k = 2, control = list(seed = 1234))

你现在已经适合模型了!现在,我们可以得出概率。

ap_topics <- tidy(ap_lda, matrix = "beta")

ap_topics
#> # A tibble: 20,946 x 3
#>    topic       term         beta
#>    <int>      <chr>        <dbl>
#>  1     1      aaron 1.686917e-12
#>  2     2      aaron 3.895941e-05
#>  3     1    abandon 2.654910e-05
#>  4     2    abandon 3.990786e-05
#>  5     1  abandoned 1.390663e-04
#>  6     2  abandoned 5.876946e-05
#>  7     1 abandoning 2.454843e-33
#>  8     2 abandoning 2.337565e-05
#>  9     1     abbott 2.130484e-06
#> 10     2     abbott 2.968045e-05
#> # ... with 20,936 more rows

他们都混在那里。让我们使用 dplyr 来获取每个主题的最可能的术语。

ap_top_terms <- ap_topics %>%
  group_by(topic) %>%
  top_n(200, beta) %>%
  ungroup() %>%
  arrange(topic, -beta)

您现在可以使用它来制作 wordcloud(进行一些重塑)。概率是你想要对应的beta单词有多大。

library(wordcloud)
library(reshape2)

ap_top_terms %>%
  mutate(topic = paste("topic", topic)) %>%
  acast(term ~ topic, value.var = "beta", fill = 0) %>%
  comparison.cloud(colors = c("#F8766D", "#00BFC4"),
                   max.words = 100)

于 2017-08-08T20:28:30.807 回答
1

DTM根据每个主题的单词( )取你的一个子集,dtm[,topterms]并取子集文档术语矩阵的列总和(slam::col_sums)。例如:

library(topicmodels)
library(tm)
library(wordcloud)
txt <- c(world="Hello hello world world world foo", foo="foo foo bar fizz")
dtm <- DocumentTermMatrix(VCorpus(VectorSource(txt)))
lda <- LDA(dtm, control = list(alpha = 0.1), k = 2)
freqlst <- lapply(
  terms(lda, thres=.2, simplify=F), 
  function(topterms) slam::col_sums(dtm[,topterms])
)
par(mfrow = c(1,2))
invisible(lapply(freqlst, function(x) 
  wordcloud(names(x), x, min.freq = 0)
))
于 2017-08-08T08:55:04.880 回答