我必须将Matrix
R[m n] 分解为两个低秩矩阵(U[K m] 和 V[K*n]),我这样做是为了通过 U 和 V 预测 R 的缺失值。
问题是,对于分解R ,我不能使用Matlab
分解方法,所以我必须研究目标函数,以最小化sum-of-squared-errors
提高分解精度:
详细信息如下所示:
我在这篇文章中的问题是如何在使用随机梯度下降法将 R 分解为 U 和 V 矩阵中最小化函数 F。Matlab
谢谢你的帮助!
我必须将Matrix
R[m n] 分解为两个低秩矩阵(U[K m] 和 V[K*n]),我这样做是为了通过 U 和 V 预测 R 的缺失值。
问题是,对于分解R ,我不能使用Matlab
分解方法,所以我必须研究目标函数,以最小化sum-of-squared-errors
提高分解精度:
详细信息如下所示:
我在这篇文章中的问题是如何在使用随机梯度下降法将 R 分解为 U 和 V 矩阵中最小化函数 F。Matlab
谢谢你的帮助!
Finally I figured out with help of this page :)
I explain the approach in some steps:
Create U[k*m] and V[k*n] and fill them arbitrarily
Compute derivatives for objective function on Ui and Vj
Do gradient descent as follows:
while (your criteria satisfies(optimizing error function F)) { Ui=Ui+a(U'i); Vj=Vj+a(V'j); Evaluate F using new values of Ui and Vj; }
With the minimum F , take U and V, compute transpose(U)*V and the result is estimated R (a is step size or learning rate)