0

我有一个使用 OpenCV 和两个网络摄像头的立体声设置。我使用 BM 对应算法计算了基本矩阵和基本矩阵,intrinces extrinces 等。现在我想在另一张图像中找到左图像中一个像素的匹配点。为此,我定义了以下函数,该函数不完整,因为我的主要目标是计算真实世界的距离。

void StereoVision::findEpipolarLineForXY(int x, int y ,int lr)
{

if(calibrationDone)
{
    CvPoint3D32f p1={x,y,1};
    qDebug("%d,_,_,%d",p1.x,p1.y);

    CvMat pt1=cvMat(3,1,CV_64FC1,&p1);
    qDebug("-");
    CvMat e=_E;
    qDebug("pt1:");
    PrintMat(&pt1);
    qDebug("e:");
    PrintMat(&e);

    //CvMat * corLine;
    //CvMat* pt2=e*pt1;

    CvMat *pt2 = cvCreateMat( e.rows, pt1.cols, CV_64FC1);
    qDebug("pt2:");
    PrintMat(pt2);
    qDebug("--%d--->%d",pt2->rows,pt2->cols);

    cvMatMul( &e, &pt1, pt2 );

    qDebug("--%d--->%d",pt2->cols,pt2->data);
    //const CvMat* f=&_F;
    qDebug("---");
    //cvComputeCorrespondEpilines(&mat,lr,f,corLine);
    qDebug("----");
    //qDebug("%d,,,%d",corLine->height,corLine->rows);

    }

}


void StereoVision::PrintMat(CvMat *A)
{
int i, j;

for (i = 0; i < A->rows; i++)
{
    QDebug dbg(QtDebugMsg);
    dbg<<"\n";
    switch (CV_MAT_DEPTH(A->type))
    {
    case CV_32F:
    case CV_64F:
        for (j = 0; j < A->cols; j++)
            dbg <<"%8.3f "<< ((float)cvGetReal2D(A, i, j));
        break;
    case CV_8U:
    case CV_16U:
        for(j = 0; j < A->cols; j++)
            dbg <<"%6d"<<((int)cvGetReal2D(A, i, j));
        break;
    default:
        break;
    }
    dbg.~QDebug();
}
qDebug("");
}

我想知道为什么基本矩阵是一个坏矩阵?所有输出如下:

350, , ,317

0, , ,1081466880

-

点1:

%8.3f 350

%8.3f 317

%8.3f 1

e:

%8.3f 0 %8.3f inf %8.3f 0

%8.3f 0 %8.3f 0 %8.3f 0

%8.3f 0 %8.3f 0 %8.3f 0

第二点:

%8.3f -inf

%8.3f -inf

%8.3f -inf

--3--->1

--1--->44201616



我也想知道我是否在正确的路径上找到真实世界坐标中像素的 3D 距离?

4

1 回答 1

0

您应该查找Stereo Ranging

如果您有视差像素值,即两帧中两点之间的水平像素距离,您可以找出该点的真实世界深度(相对于相机基线)。

focal_length_pixels = focal_length_mm * sensor_pixels_per_mm;
distance_mm = baseline_mm * focal_length_pixels / disparity_pixels;

disparity_pixels- 两帧之间的水平像素距离(针对该点)。例如。如果左图中的点是(100, 150)并且第二张图中的点是(125, 160)disparity_pixel = 25

您可以focal_length_mm从您的相机规格中获得。

focal_length_pixels = distance_mm * disparity_pixels / baseline_mm;
sensor_pixels_per_mm = focal_length_pixels / focal_length_mm;

将物体x mm与相机的基线保持一定距离。并得到disparity_pixels如上图所示。你知道baseline_mm. 这会给你focal_length_pixelssensor_pixels_per_mm。读这个

于 2013-03-24T02:25:54.177 回答