2

我正在研究推荐算法:使用随机梯度作为优化器的矩阵分解。

我想并行化我的算法。我发现这篇文章Parallelized Stochastic Descent Gradient。他们给出了一个算法(p3):

Algorithm 3 SimuParallelSGD(Examples {c1, . . . cm}, Learning Rate η, Machines k)

Define T = ⌊m/k⌋
Randomly partition the examples, giving T examples to each machine.
for all i ∈ {1, . . . k} parallel do
  Randomly shuffle the data on machine i.
  Initialize w(i,0) = 0.
  for all t ∈ {1, . . . T }: do
    Get the tth example on the ith machine (this machine), c(i,t)
    w(i,t) ← w(i,t−1) − η∂(w)  ci*(wi,t−1)
  end for
end for
Aggregate from all computers v = 1/k SUM(W(i,t) and return v.

他们评论说:

“该算法直到最后都不需要机器之间的通信。这非常适合 MapReduce 设置。”

我看不出他们是如何实现的。他们是否“手动”在每台机器上分发数据?还是使用HDFS

由于 HDFS 负责数据的分发;如何限制我的程序仅在他当前的数据节点上处理数据?

有没有合适的方法用spark + hadoop 集群来实现它?

欢迎任何线索


我忘了提一件事。我在 spark 上看到了带有SGD的示例回归逻辑。

但数据集只是一个

      UserID | ItemID | ratings

在我的例子中,为了加强算法,我们添加了一些用户信息和项目信息。所以我在每个数据节点上还有两个文件(UserID 年龄性别..)和(ItemID 颜色大小..),以完成计算。

我在想也许可以让 HDFS 的复制数量等于机器的数量,这样所有数据都将在每个节点上。但我不知道什么时候我会在 spark 上这样做:

 val textFile = sc.textFile("README.md")
  1. 会发生什么?
  2. rdd 会在每个数据节点的内存上创建吗?
  3. 是否所有任务只能由每个数据节点在本地处理?
4

1 回答 1

2

它与 Spark 在逻辑回归下的示例中使用的算法相同:

http://spark.apache.org/examples.html

是的,所有方法都依赖于将数据拆分为块,这就是 HDFS 本​​身所做的。在 MapReduce 设置中,每个映射器都会执行最内层的 for 循环,reducer 会聚合来自所有计算机的结果。要收敛,您需要多次运行它——从而调度许多 MapReduce 作业。

作为一个实用的旁注,随机步骤之前的洗牌通常被忽略。它需要在每次迭代时重写数据或完全内存映射+洗牌 - 两者都非常昂贵。

于 2014-04-02T15:45:46.910 回答