7

我有一个格式如下的 CSV 文件:

product_id1,product_title1
product_id2,product_title2
product_id3,product_title3
product_id4,product_title4
product_id5,product_title5
[...]

product_idX 是一个整数,product_titleX 是一个字符串,例如:

453478692, Apple iPhone 4 8Go

我正在尝试从我的文件中创建 TF-IDF,以便我可以将它用于 MLlib 中的朴素贝叶斯分类器。

到目前为止,我正在使用 Spark for Scala,并使用我在官方页面和 Berkley AmpCamp 34上找到的教程。

所以我正在阅读文件:

val file = sc.textFile("offers.csv")

然后我将它映射到元组中RDD[Array[String]]

val tuples = file.map(line => line.split(",")).cache

在我将元组转换成对之后RDD[(Int, String)]

val pairs = tuples.(line => (line(0),line(1)))

但是我被困在这里,我不知道如何从中创建 Vector 以将其转换为 TFIDF。

谢谢

4

1 回答 1

8

为了自己做这件事(使用 pyspark),我首先从语料库中创建了两个数据结构。第一个是key,value结构

document_id, [token_ids]

第二个是倒排索引

token_id, [document_ids]

我将分别调用这些语料库和 inv_index。

要获得 tf,我们需要计算每个文档中每个标记的出现次数。所以

from collections import Counter
def wc_per_row(row):
    cnt = Counter()
    for word in row:
        cnt[word] += 1
    return cnt.items() 

tf = corpus.map(lambda (x, y): (x, wc_per_row(y)))

df 只是每个术语的倒排索引的长度。由此我们可以计算出 idf。

df = inv_index.map(lambda (x, y): (x, len(y)))
num_documnents = tf.count()

# At this step you can also apply some filters to make sure to keep
# only terms within a 'good' range of df. 
import math.log10
idf = df.map(lambda (k, v): (k, 1. + log10(num_documents/v))).collect()

现在我们只需要在 term_id 上做一个连接:

def calc_tfidf(tf_tuples, idf_tuples):
    return [(k1, v1 * v2) for (k1, v1) in tf_tuples for
        (k2, v2) in idf_tuples if k1 == k2]

tfidf = tf.map(lambda (k, v): (k, calc_tfidf(v, idf)))

不过,这不是一个特别高效的解决方案。调用 collect 将 idf 带入驱动程序以便它可用于连接似乎是错误的做法。

当然,它需要首先标记化并创建从词汇表中的每个 uniq 标记到某个 token_id 的映射。

如果有人可以改进这一点,我很感兴趣。

于 2014-09-22T22:32:04.130 回答