0

我想创建一个计算神经网络输出的函数。我的 NN 的元素是一个 19D 输入向量和一个 19D 输出向量。我选择了一个有 50 个神经元的隐藏层。我的代码如下,但我不太确定它是否正常工作。

double *BuildPlanner::neural_tactics(){


    norm();  //normalize input vector
    ReadFromFile();   // load weights W1 W2 b1

    double hiddenLayer [50][1];


    for(int h=0; h<50; h++){
            hiddenLayer[h][0] =0;
            for(int f = 0; f < 19; f++){

                    hiddenLayer[h][0] = hiddenLayer[h][0] + W1[h][f]*input1[f][0];
            }
    }

    double HiddenLayer[50][1];

    for(int h=0; h<50; h++){
            HiddenLayer[h][0] = tanh(hiddenLayer[h][0] + b1[h][0]);
    }

    double outputLayer[50][1];

    for(int h=0; h<19; h++){
            for(int k=0; k<50; k++){
                    outputLayer[h][0] = outputLayer[h][0] + W2[h][k]*HiddenLayer[k][0];
            }
    }

    double Output[19];

    for(int h=0; h<19; h++){

            Output[h] = tanh(outputLayer[h][0]);
    }

    return Output;
}

其实我不太确定矩阵乘法。W1*input+b1 其中矩阵的大小为 50x19 * 19x1 + 50x1 和 W2*outHiddenLayer 19x50*50x1!

4

1 回答 1

1

你的矩阵乘法对我来说看起来不错,但还有其他问题——`outputLayer 是 50x1 但是 a)你只遍历前 19 个元素,b)你在方程的 RHS 上有它

outputLayer[h][0] = outputLayer[h][0] + W2[h][k]...

在该元素被定义之前。这可能会导致你所有的问题。此外,虽然我假设您正在制作outputLayer二维以使它们看起来像矩阵,但当第二维的大小为 1 时,它完全是无偿的并且会减慢速度——只需将其声明为

double outputLayer[50];

因为它是一个向量,而且它们总是一维的,所以它实际上会让你的代码更清晰。

于 2012-09-04T18:15:43.580 回答