2

我目前正在尝试通过使用 EMGU 来实现转换,尽管我似乎无法理解它是如何工作的(而且似乎没有任何在线示例)。

我有我的图像,我希望从(和到)转换 4 个点,虽然我不知道还需要什么其他变量,但它要求 'mapMat' ?

这是我到目前为止所拥有的:

        float[,] tmp = {
                            {bottomLeft.x, bottomLeft.y},
                            {topLeft.x, topLeft.y},
                            {topRight.x, topRight.y},
                            {bottomRight.x, bottomRight.y}
                       };
        Matrix<float> sourceMat = new Matrix<float>(tmp);
        float[,] target = {
                            {0, height},
                            {0, 0},
                            {width, 0},
                            {width, height}
                       };
        Matrix<float> targetMat = new Matrix<float>(target);
        //mapMat = just a placeholder matrix?
        Matrix<float> mapMat = new Matrix<float>(target);
        CvInvoke.cvGetAffineTransform(sourceMat.Ptr, targetMat.Ptr, mapMat.Ptr);

然而这不起作用。我也不确定仿射变换是否是最理想的解决方案?我也读过一些关于 FindHomography 和透视变换的东西,但不确定它们是否适用于这里。

我希望实现的目标转换是这样的:

http://img832.imageshack.us/img832/5157/targettransform.png

任何帮助将不胜感激,

谢谢

4

1 回答 1

4

先做一点介绍:

  • 如果您想要仿射变换(从您的图片中看起来),您至少需要 3 个点对,因为您有 6 个参数要估计
  • 如果您想要更通用的转换,即单应性,您至少需要 4 个点对,因为您有 8 个参数要估计

因此,假设您有 4 个源角和目标角,并且您想估计一个透视转换,此代码应该执行您想要的操作:

PointF[] pts1 = new PointF[4];
PointF[] pts2 = new PointF[4];
HomographyMatrix homography;
for (int i = 0; i < 4; i++)
{
  pts1[i] = new PointF (sourceCorner[i].X, sourceCorner[i].Y);
  pts2[i] = new PointF (destCorner[i].X, destCorner[i].Y);
}
homography = CameraCalibration.GetPerspectiveTransform(pts1, pts2);

查看 CameraCalibration 以了解其他有用的方法

于 2011-02-07T17:34:30.933 回答