2

我多次计算Pearson 相关性(平均用户/项目评级),使用我当前的代码性能非常糟糕:

public double ComputeCorrelation(double[] x, double[] y, double[] meanX, double[] meanY)
        {
            if (x.Length != y.Length)
                throw new ArgumentException("values must be the same length");

            double sumNum = 0;
            double sumDenom = 0;
            double denomX = 0;
            double denomY = 0;

            for (int a = 0; a < x.Length; a++)
            {
                sumNum += (x[a] - meanX[a]) * (y[a] - meanY[a]);
                denomX += Math.Pow(x[a] - meanX[a], 2);
                denomY += Math.Pow(y[a] - meanY[a], 2);
            }

            var sqrtDenomX = Math.Sqrt(denomX);
            var sqrtDenomY = Math.Sqrt(denomY);

            if (sqrtDenomX == 0 || sqrtDenomY == 0) return 0;

            sumDenom = Math.Sqrt(denomX) * Math.Sqrt(denomY);

            var correlation = sumNum / sumDenom;

            return correlation;
        }

我正在使用标准的 Pearson 相关性MathNet.Numerics,但这是对标准的修改,无法使用它。有没有办法加快速度?如何优化时间复杂度?

4

3 回答 3

2

在 MSE 答案上添加一些 - 更改Pow(x,2)diff*diff绝对是您想要做的事情,您可能还希望避免在最内层循环中进行不必要的边界检查。这可以使用C# 中的指针来完成。

可以这样做:

    public unsafe double ComputeCorrelation(double[] x, double[] y, double[] meanX, double[] meanY)
    {
        if (x.Length != y.Length)
            throw new ArgumentException("values must be the same length");

        double sumNum = 0;
        double sumDenom = 0;
        double denomX = 0;
        double denomY = 0;
        double diffX;
        double diffY;

        int len = x.Length;

        fixed (double* xptr = &x[0], yptr = &y[0], meanXptr = &meanX[0], meanYptr = &meanY[0])
        {
            for (int a = 0; a < len; a++)
            {
                diffX = (xptr[a] - meanXptr[a]);
                diffY = (yptr[a] - meanYptr[a]);
                sumNum += diffX * diffY;
                denomX += diffX * diffX;
                denomY += diffY * diffY;
            }
        }

        var sqrtDenomX = Math.Sqrt(denomX);
        var sqrtDenomY = Math.Sqrt(denomY);

        if (sqrtDenomX == 0 || sqrtDenomY == 0) return 0;

        sumDenom = sqrtDenomX * sqrtDenomY;

        var correlation = sumNum / sumDenom;

        return correlation;
    }
于 2016-04-23T16:32:44.097 回答
1

如果可能,解决性能问题的最佳方法可能是避免计算尽可能多的相关性。如果您将相关性用作另一个计算的一部分,则可以使用数学来消除对其中一些的需求。

您还应该考虑是否可以使用 Pearson 相关性的平方而不是 Pearson 相关性本身。这样,您可以节省对 的调用Math.Sqrt(),这通常非常昂贵。

如果确实需要取平方根,则应再次使用sqrtDenomXand sqrtDenomY,而不是重新计算平方根。

于 2016-04-21T18:25:37.187 回答
1

我在您的代码中看到的唯一可能的优化在以下代码中,如果您仍在寻找更好的性能,那么您可能需要使用SIMD 矢量化。它将允许您使用 CPU 的全部计算能力

public double ComputeCorrelation(double[] x, double[] y, double[] meanX, double[] meanY)
    {
        if (x.Length != y.Length)
            throw new ArgumentException("values must be the same length");

        double sumNum = 0;
        double sumDenom = 0;
        double denomX = 0;
        double denomY = 0;
        double diffX;
        double diffY;

        for (int a = 0; a < x.Length; a++)
        {
            diffX = (x[a] - meanX[a]);
            diffY = (y[a] - meanY[a]);
            sumNum += diffX * diffY;
            denomX += diffX * diffX;
            denomY += diffY * diffY;
        }

        var sqrtDenomX = Math.Sqrt(denomX);
        var sqrtDenomY = Math.Sqrt(denomY);

        if (sqrtDenomX == 0 || sqrtDenomY == 0) return 0;

        sumDenom = sqrtDenomX * sqrtDenomY;

        var correlation = sumNum / sumDenom;

        return correlation;
    }
于 2016-04-21T21:23:38.767 回答