5

我正在尝试使用反向传播算法训练神经网络。在 OpenCV 2.3 中。然而,它没有正确预测......甚至在训练数据集上也没有。有人可以帮我找出这里有什么问题吗?

training_feature_matrix - 浮点值的 Nx69 矩阵

training_age_matrix - 浮点值的 Nx4 矩阵

test_feature_matrix - 浮点值的 Mx69 矩阵

test_age_matrix - 浮点值的 Mx4 矩阵

特征矩阵(上面提到的)就像:[0.123435, 0.4542665, 0.587545, ...68-这样的值+最后一个值'1.0或2.0'取决于它的男性/女性)

年龄矩阵(上面提到的)就像: [1, 0, 0 ,0; 1, 0, 0, 0; 0, 1, 0, 0; ...] 这里 1s 表示特征矩阵对应行所属的年龄类别(婴儿、儿童、成人、老人)。

这是代码:我使用上述矩阵作为参数调用“mlp”函数)

cv::Mat mlp(cv::Mat& training_feature_matrix, cv::Mat& training_age_matrix, cv::Mat& test_feature_matrix, cv::Mat& test_age_matrix)
{
cv::Mat layers = cv::Mat(3, 1, CV_32SC1);
layers.row(0)  = cv::Scalar(69);
layers.row(1)  = cv::Scalar(36);
layers.row(2)  = cv::Scalar(4);    //   cout<<layers<<"\n";

CvANN_MLP ann;
CvANN_MLP_TrainParams params;
CvTermCriteria criteria;
criteria.max_iter = 10000;
criteria.epsilon  = 0.001;
criteria.type     = CV_TERMCRIT_ITER + CV_TERMCRIT_EPS;
params.train_method = CvANN_MLP_TrainParams::BACKPROP;
params.bp_dw_scale  = 0.1;
params.bp_moment_scale = 0.1;
params.term_crit  = criteria;

ann.create(layers, CvANN_MLP::SIGMOID_SYM);
ann.train(training_feature_matrix, training_age_matrix, cv::Mat(), cv::Mat(), params);

cv::Mat predicted(test_age_matrix.rows, 4, CV_32SC1);
for(int i = 0; i < test_feature_matrix.rows; i++)
{
  cv::Mat response(1, 4, CV_32F);
  cv::Mat sample = test_feature_matrix.row(i);
  ann.predict(sample, response);
  for (int g = 0; g < 4; g++)
  {
    predicted.at<int>(i,g) = response.at<float>(0,g);
  } 
}
   cout << "\n";
   cout << ann.get_weights(0) << "\n";
   cout << ann.get_layer_sizes() << "\n";
   cout << ann.get_layer_count() << "\n\n";

return predicted;
}

编辑此外, ann.get_weights(0) 和 ann.get_layer_sizes() 正在返回垃圾值,但 ann.get_layer_count() 正在返回正确的值 3。

谢谢 :)

4

2 回答 2

2

很久没有问这个问题了,但我会分享答案。我对 sigmoid 的输出值也有类似的问题。现在已经解决了。你可以在这里查看我的问题:

OpenCV 神经网络 Sigmoid 输出

总结这个错误,它是由于mlp 的 create 函数的默认参数而发生的。像这样使用: ann.create(layers, CvANN_MLP::SIGMOID_SYM, 1, 1)

于 2014-02-28T07:45:47.303 回答
1

反向传播并不总是收敛。它很可能会爆炸并产生废话。如果epsilon 或momentum_scale 值太大,则很可能出现这种情况。您的动力看起来处于可能起作用的最高端,我会尝试减少它。

于 2013-08-03T22:46:27.090 回答