我有兴趣使用与第 8.2.2 节David Robinson 和 Julia Silge 的 Tidy Text 挖掘书中所示类似的共现网络图,例如此图,但我希望节点的大小发生变化取决于该术语在数据中出现的次数:
上面的图表是用以下代码建立的:
library(tidytext)
library(tidyverse)
library(widyr)
library(igraph)
library(ggraph)
library(jsonlite)
metadata <- fromJSON("https://data.nasa.gov/data.json")
nasa_keyword <- data_frame(id = metadata$dataset$`_id`$`$oid`,
keyword = metadata$dataset$keyword) %>%
unnest(keyword)
keyword_cors <- nasa_keyword %>%
group_by(keyword) %>%
filter(n() >= 50) %>%
pairwise_cor(keyword, id, sort = TRUE, upper = FALSE)
set.seed(1234)
keyword_cors %>%
filter(correlation > .6) %>%
graph_from_data_frame() %>%
ggraph(layout = "fr") +
geom_edge_link(aes(edge_alpha = correlation, edge_width = correlation), edge_colour = "royalblue") +
geom_node_point(size = 5) +
geom_node_text(aes(label = name), repel = TRUE,
point.padding = unit(0.2, "lines")) +
theme_void()
我一直在玩,geom_node_point(aes(size = ??))
但我不知道如何配置代码来做到这一点。对我来说,部分问题是该函数graph_from_data_frame()
将数据框变成了一个看起来相当复杂的对象。