使用tm
andslam
包,这是一种结合了文本处理技术的不那么天真的方法:
## load the requisite libraries
library(tm)
library(slam)
首先,从组合的城镇和水向量创建一个语料库。我们最终将根据文本计算每个城镇和每个水体之间的距离。
corpus <- Corpus(VectorSource((c(towns, water))))
在这里,我通过删除标点符号和词干“文档”来进行一些标准的预处理。词干发现单词的共同基础部分。例如,city 和 city 具有相同的词干:citi
corpus <- tm_map(corpus, removePunctuation)
corpus <- tm_map(corpus, stemDocument)
标准术语文档矩阵具有二进制指示符,用于指示哪些单词在哪些文档中。我们还想对有关单词在整个语料库中出现频率的附加信息进行编码。例如,我们不关心“the”在文档中出现的频率,因为它非常常见。
tdm <- weightTfIdf(TermDocumentMatrix(corpus))
最后,我们计算每个文档之间的余弦距离。该tm
包创建稀疏矩阵,这些矩阵通常非常节省内存。该slam
包具有稀疏矩阵的矩阵数学函数。
cosine_dist <- function(tdm) {
crossprod_simple_triplet_matrix(tdm)/(sqrt(col_sums(tdm^2) %*% t(col_sums(tdm^2))))
}
d <- cosine_dist(tdm)
> d
Docs
Docs 1 2 3 4 5 6 7 8
1 1.00000000 0.034622992 0.038063800 0.044272011 0.00000000 0.0000000 0.000000000 0.260626250
2 0.03462299 1.000000000 0.055616255 0.064687275 0.01751883 0.0000000 0.146145917 0.006994714
3 0.03806380 0.055616255 1.000000000 0.071115850 0.01925984 0.0000000 0.006633427 0.007689843
4 0.04427201 0.064687275 0.071115850 1.000000000 0.54258275 0.0000000 0.007715340 0.008944058
5 0.00000000 0.017518827 0.019259836 0.542582752 1.00000000 0.0000000 0.014219656 0.016484228
6 0.00000000 0.000000000 0.000000000 0.000000000 0.00000000 1.0000000 0.121137618 0.000000000
7 0.00000000 0.146145917 0.006633427 0.007715340 0.01421966 0.1211376 1.000000000 0.005677459
8 0.26062625 0.006994714 0.007689843 0.008944058 0.01648423 0.0000000 0.005677459 1.000000000
现在我们在同一个矩阵中有一个所有城镇和水体之间的相似度得分矩阵。不过,我们只关心这个矩阵一半的距离。因此,应用函数中的索引符号如下:
best.match <- apply(d[5:8,1:4], 1, function(row) if(all(row == 0)) NA else which.max(row))
这是输出:
> cbind(water, towns[best.match])
water
[1,] "Alturas City of" "Alturas city, Modoc County"
[2,] "Casitas Municipal Water District" NA
[3,] "California Water Service Company Bellflower City" "Bellflower city, Los Angeles County"
[4,] "Contra Costa City of Public Works" "Acalanes Ridge CDP, Contra Costa County"
注意 NA 值。当水体和所有城镇之间没有一个单词匹配时,返回 NA。