4

我正在使用带有 Scipy 的稀疏矩阵为推荐系统实现随机梯度下降算法。

这是第一个基本实现的样子:

    N = self.model.shape[0] #no of users
    M = self.model.shape[1] #no of items
    self.p = np.random.rand(N, K)
    self.q = np.random.rand(M, K)
    rows,cols = self.model.nonzero()        
    for step in xrange(steps):
        for u, i in zip(rows,cols):
            e=self.model-np.dot(self.p,self.q.T) #calculate error for gradient
            p_temp = learning_rate * ( e[u,i] * self.q[i,:] - regularization * self.p[u,:])
            self.q[i,:]+= learning_rate * ( e[u,i] * self.p[u,:] - regularization * self.q[i,:])
            self.p[u,:] += p_temp

不幸的是,我的代码仍然很慢,即使是一个小的 4x5 评级矩阵。我在想这可能是由于循环的稀疏矩阵。我尝试过使用花哨的索引来表达 q 和 p 的变化,但是由于我对 scipy 和 numpy 还是很陌生,所以我想不出更好的方法来做到这一点。

您对我如何避免显式迭代稀疏矩阵的行和列有任何指示吗?

4

2 回答 2

1

我几乎忘记了关于推荐系统的所有内容,所以我可能错误地翻译了你的代码,但你self.model-np.dot(self.p,self.q.T)在每个循环中重新评估,而我几乎相信它应该每步评估一次。

然后似乎你手动进行矩阵乘法,这可能可以通过直接矩阵乘法来加速(numpy或scipy会比你手动更快),像这样:

for step in xrange(steps):
    e = self.model - np.dot(self.p, self.q.T)
    p_temp = learning_rate * np.dot(e, self.q)
    self.q *= (1-regularization)
    self.q += learning_rate*(np.dot(e.T, self.p))
    self.p *= (1-regularization)
    self.p += p_temp
于 2013-11-17T16:26:26.083 回答
0

您确定要实施 SGD 吗?因为在每一步中,您必须计算一个用户评分的误差,而不是所有评分矩阵的误差,或者我可能无法理解您的代码的这一行:

e=self.model-np.dot(self.p,self.q.T) #calculate error for gradient

对于 Scipy 库,如果您想直接访问稀疏矩阵的元素,我相信您会遇到缓慢的瓶颈。您可以在每个步骤中将特定的行和列放入 RAM,然后进行计算,而不是从 Scipy-sparse-matrix 访问评级矩阵的元素。

于 2018-10-16T16:13:27.120 回答