22

OpenCVremap()使用实值索引网格使用双线性插值从图像中采样值网格,并将样本网格作为新图像返回。

准确地说,让:

A = an image 
X = a grid of real-valued X coords into the image. 
Y = a grid of real-valued Y coords into the image.
B = remap(A, X, Y)

那么对于所有像素坐标 i, j,

B[i, j] = A(X[i, j], Y[i, j]) 

其中圆括号表示法表示使用双线性插值来使用浮点值坐标和A(x, y)求解图像 A 的像素值。xy

我的问题是:给定一个索引网格XY我怎样才能生成一个“逆网格” X^-1Y^-1这样:

X(X^-1[i, j], Y^-1[i, j]) = i
Y(X^-1[i, j], Y^-1[i, j]) = j

X^-1(X[i, j], Y[i, j]) = i
Y^-1(X[i, j], Y[i, j]) = j

对于所有整数像素坐标i, j

FWIW,图像和索引图 X 和 Y 的形状相同。但是,索引映射 X 和 Y 没有先验结构。例如,它们不一定是仿射或刚性变换。它们甚至可能是不可逆的,例如,如果X, Y将多个像素映射A到 B 中相同的确切像素坐标。我正在寻找一种方法的想法,该方法将找到一个合理的逆映射(如果存在)。

该解决方案不必基于 OpenCV,因为我没有使用 OpenCV,而是另一个具有remap()实现的库。虽然欢迎任何建议,但我特别热衷于“数学上正确”的东西,即如果我的地图 M 是完全可逆的,那么该方法应该在机器精度的一些小范围内找到完美的逆。

4

11 回答 11

10

好吧,我只需要自己解决这个重映射反转问题,然后我将概述我的解决方案。

给定X,Y对于执行remap()以下操作的函数:

B[i, j] = A(X[i, j], Y[i, j])   

我计算了Xinv,函数Yinv可以使用它来反转过程:remap()

A[x, y] = B(Xinv[x,y],Yinv[x,y])

首先,我为 2D 点集构建了一个KD-Tree{(X[i,j],Y[i,j]} ,这样我就可以有效地找到N给定点的最近邻居,(x,y).我使用欧几里得距离作为距离度量。我在 GitHub 上为 KD-Trees找到了一个很棒的C++ 头文件库。

然后我循环遍历网格中的所有(x,y)值并在我的点集中找到最近的邻居。AN = 5{(X[i_k,j_k],Y[i_k,j_k]) | k = 0 .. N-1}

  • If distance d_k == 0for some kthen Xinv[x,y] = i_kand Yinv[x,y] = j_k,否则...

  • 使用反距离加权 (IDW)计算插值:

    • 让重量w_k = 1 / pow(d_k, p) (我用p = 2
    • Xinv[x,y] = (sum_k w_k * i_k)/(sum_k w_k)
    • Yinv[x,y] = (sum_k w_k * j_k)/(sum_k w_k)

请注意,如果BW x H图像,则XY浮点数W x H数组。如果Aw x h图像,那么XinvYinv浮点数的w x h数组。与图像和地图大小保持一致很重要。

奇迹般有效!我的第一个版本我尝试强制搜索,我什至没有等待它完成。我切换到 KD-Tree 然后我开始获得合理的运行时间。如果我有时间,我想将它添加到 OpenCV。

下面的第二张图像用于remap()从第一张图像中消除镜头失真。第三幅图像是反转过程的结果。

在此处输入图像描述 在此处输入图像描述 在此处输入图像描述

于 2017-09-02T00:37:55.460 回答
6

这是一个重要的问题,我很惊讶在任何标准库中都没有更好地解决它(至少据我所知)。

我对接受的解决方案不满意,因为它没有使用转换的隐式平滑度。我可能会错过重要的案例,但我无法想象在任何有用的意义上都是可逆的并且在像素尺度上不平滑的映射。

平滑意味着不需要计算最近邻:最近的点是那些已经在原始网格附近的点。

我的解决方案使用的事实是,在原始映射中,正方形 [(i,j), (i+1, j), (i+1, j+1), (i, j+1)] 映射到四边形 [(X[i,j], Y[i,j], X[i+1,j], Y[i+1,j], ...] 里面没有其他点。然后逆映射只需要在四边形内插值。为此,我使用逆双线性插值,它将在顶点和任何其他仿射变换处给出精确的结果。

该实现除了numpy. 逻辑是遍历所有四边形并逐步构建反向映射。我在这里复制代码,希望有足够的注释使这个想法足够清晰。

关于不太明显的东西的一些评论:

  • 逆双线性函数通常只返回 [0,1] 范围内的坐标。我删除了裁剪操作,因此超出范围的值意味着坐标在四边形之外(这是解决多边形内点问题的一种扭曲方式!)。为了避免边缘丢失点,我实际上允许 [0,1] 范围之外的点,这通常意味着一个索引可能会被两个相邻的四边形拾取。在这些罕见的情况下,我只是让结果是两个结果的平均值,相信超出范围的点是以合理的方式“外推”的。
  • 一般来说,所有四边形都有不同的形状,它们与规则网格的重叠可以从无到有变化很多点。该例程一次求解所有四边形(以利用 的矢量化性质bilinear_inverse,但在每次迭代中仅选择坐标(与其边界框的偏移量)有效的四边形。
import numpy as np

def bilinear_inverse(p, vertices, numiter=4):
    """
    Compute the inverse of the bilinear map from the unit square
    [(0,0), (1,0), (1,1), (0,1)]
    to the quadrilateral vertices = [p0, p1, p2, p4]

    Parameters:
    ----------
    p: array of shape (2, ...)
        Points on which the inverse transforms are applied.
    vertices: array of shape (4, 2, ...)
        Coordinates of the vertices mapped to the unit square corners
    numiter:
        Number of Newton interations

    Returns:
    --------
    s: array of shape (2, ...)
        Mapped points.

    This is a (more general) python implementation of the matlab implementation 
    suggested in https://stackoverflow.com/a/18332009/1560876
    """

    p = np.asarray(p)
    v = np.asarray(vertices)
    sh = p.shape[1:]
    if v.ndim == 2:
        v = np.expand_dims(v, axis=tuple(range(2, 2 + len(sh))))

    # Start in the center
    s = .5 * np.ones((2,) + sh)
    s0, s1 = s
    for k in range(numiter):
        # Residual
        r = v[0] * (1 - s0) * (1 - s1) + v[1] * s0 * (1 - s1) + v[2] * s0 * s1 + v[3] * (1 - s0) * s1 - p

        # Jacobian
        J11 = -v[0, 0] * (1 - s1) + v[1, 0] * (1 - s1) + v[2, 0] * s1 - v[3, 0] * s1
        J21 = -v[0, 1] * (1 - s1) + v[1, 1] * (1 - s1) + v[2, 1] * s1 - v[3, 1] * s1
        J12 = -v[0, 0] * (1 - s0) - v[1, 0] * s0 + v[2, 0] * s0 + v[3, 0] * (1 - s0)
        J22 = -v[0, 1] * (1 - s0) - v[1, 1] * s0 + v[2, 1] * s0 + v[3, 1] * (1 - s0)

        inv_detJ = 1. / (J11 * J22 - J12 * J21)

        s0 -= inv_detJ * (J22 * r[0] - J12 * r[1])
        s1 -= inv_detJ * (-J21 * r[0] + J11 * r[1])

    return s


def invert_map(xmap, ymap, diagnostics=False):
    """
    Generate the inverse of deformation map defined by (xmap, ymap) using inverse bilinear interpolation.
    """

    # Generate quadrilaterals from mapped grid points.
    quads = np.array([[ymap[:-1, :-1], xmap[:-1, :-1]],
                      [ymap[1:, :-1], xmap[1:, :-1]],
                      [ymap[1:, 1:], xmap[1:, 1:]],
                      [ymap[:-1, 1:], xmap[:-1, 1:]]])

    # Range of indices possibly within each quadrilateral
    x0 = np.floor(quads[:, 1, ...].min(axis=0)).astype(int)
    x1 = np.ceil(quads[:, 1, ...].max(axis=0)).astype(int)
    y0 = np.floor(quads[:, 0, ...].min(axis=0)).astype(int)
    y1 = np.ceil(quads[:, 0, ...].max(axis=0)).astype(int)

    # Quad indices
    i0, j0 = np.indices(x0.shape)

    # Offset of destination map
    x0_offset = x0.min()
    y0_offset = y0.min()

    # Index range in x and y (per quad)
    xN = x1 - x0 + 1
    yN = y1 - y0 + 1

    # Shape of destination array
    sh_dest = (1 + x1.max() - x0_offset, 1 + y1.max() - y0_offset)

    # Coordinates of destination array
    yy_dest, xx_dest = np.indices(sh_dest)

    xmap1 = np.zeros(sh_dest)
    ymap1 = np.zeros(sh_dest)
    TN = np.zeros(sh_dest, dtype=int)

    # Smallish number to avoid missing point lying on edges
    epsilon = .01

    # Loop through indices possibly within quads
    for ix in range(xN.max()):
        for iy in range(yN.max()):
            # Work only with quads whose bounding box contain indices
            valid = (xN > ix) * (yN > iy)

            # Local points to check
            p = np.array([y0[valid] + ix, x0[valid] + iy])

            # Map the position of the point in the quad
            s = bilinear_inverse(p, quads[:, :, valid])

            # s out of unit square means p out of quad
            # Keep some epsilon around to avoid missing edges
            in_quad = np.all((s > -epsilon) * (s < (1 + epsilon)), axis=0)

            # Add found indices
            ii = p[0, in_quad] - y0_offset
            jj = p[1, in_quad] - x0_offset

            ymap1[ii, jj] += i0[valid][in_quad] + s[0][in_quad]
            xmap1[ii, jj] += j0[valid][in_quad] + s[1][in_quad]

            # Increment count
            TN[ii, jj] += 1

    ymap1 /= TN + (TN == 0)
    xmap1 /= TN + (TN == 0)

    if diagnostics:
        diag = {'x_offset': x0_offset,
                'y_offset': y0_offset,
                'mask': TN > 0}
        return xmap1, ymap1, diag
    else:
        return xmap1, ymap1

这是一个测试示例

import cv2 as cv
from scipy import ndimage as ndi

# Simulate deformation field
N = 500
sh = (N, N)
t = np.random.normal(size=sh)
dx = ndi.gaussian_filter(t, 40, order=(0,1))
dy = ndi.gaussian_filter(t, 40, order=(1,0))
dx *= 30/dx.max()
dy *= 30/dy.max()

# Test image
img = np.zeros(sh)
img[::10, :] = 1
img[:, ::10] = 1
img = ndi.gaussian_filter(img, 0.5)

# Apply forward mapping
yy, xx = np.indices(sh)
xmap = (xx-dx).astype(np.float32)
ymap = (yy-dy).astype(np.float32)
warped = cv.remap(img, xmap, ymap ,cv.INTER_LINEAR)
plt.imshow(warped, cmap='gray')

扭曲的图像

# Now invert the mapping
xmap1, ymap1 = invert_map(xmap, ymap)

unwarped = cv.remap(warped, xmap1.astype(np.float32), ymap1.astype(np.float32) ,cv.INTER_LINEAR)

plt.imshow(unwarped, cmap='gray')

未变形的图像

于 2021-01-04T16:35:08.187 回答
4

迭代解决方案

上述许多解决方案对我不起作用,当地图不可逆时失败,或者不是非常快。

我提出了另一种 6 行迭代解决方案。

def invert_map(F):
    I = np.zeros_like(F)
    I[:,:,1], I[:,:,0] = np.indices(sh)
    P = np.copy(I)
    for i in range(10):
        P += I - cv.remap(F, P, None, interpolation=cv.INTER_LINEAR)
    return P

它的效果如何? 对于我为航空摄影反转地形校正图的用例,此方法以 10 步轻松收敛到 1/10 像素。它也非常快,因为所有繁重的计算都隐藏在 OpenCV 中

它是如何工作的?

该方法使用的思想是,如果是一个映射,那么只要 的梯度很小(x', y') = F(x, y),则逆可以近似为 。(x, y) = -F(x', y')F

我们可以继续完善我们的映射,上面得到了我们的第一个预测(我是一个“恒等映射”):

G_1 = I - F

我们的第二个预测可以改编自:

G_2 = G_1 + I - F(G_1)

等等:

G_n+1 = G_n + I - F(G_n)

证明G_n收敛到逆F^-1是困难的,但我们可以很容易地证明,如果G已经收敛,它将保持收敛。

假设G_n = F^-1,那么我们可以代入:

G_n+1 = G_n + I - F(G_n)

然后得到:

G_n+1 = F^-1 + I - F(F^-1)
G_n+1 = F^-1 + I - I
G_n+1 = F^-1
Q.E.D.

测试脚本

import cv2 as cv
from scipy import ndimage as ndi
import numpy as np
from matplotlib import pyplot as plt

# Simulate deformation field
N = 500
sh = (N, N)
t = np.random.normal(size=sh)
dx = ndi.gaussian_filter(t, 40, order=(0,1))
dy = ndi.gaussian_filter(t, 40, order=(1,0))
dx *= 10/dx.max()
dy *= 10/dy.max()

# Test image
img = np.zeros(sh)
img[::10, :] = 1
img[:, ::10] = 1
img = ndi.gaussian_filter(img, 0.5)

# Apply forward mapping
yy, xx = np.indices(sh)
xmap = (xx-dx).astype(np.float32)
ymap = (yy-dy).astype(np.float32)
warped = cv.remap(img, xmap, ymap ,cv.INTER_LINEAR)
plt.imshow(warped, cmap='gray')

输出 1

def invert_map(F: np.ndarray):
    I = np.zeros_like(F)
    I[:,:,1], I[:,:,0] = np.indices(sh)
    P = np.copy(I)
    for i in range(10):
        P += I - cv.remap(F, P, None, interpolation=cv.INTER_LINEAR)
    return P

# F: The function to invert
F = np.zeros((sh[0], sh[1], 2), dtype=np.float32)
F[:,:,0], F[:,:,1] = (xmap, ymap)

# Test the prediction
unwarped = cv.remap(warped, invert_map(F), None, cv.INTER_LINEAR)
plt.imshow(unwarped, cmap='gray')

在此处输入图像描述

于 2021-08-09T04:14:01.157 回答
3

如果您的映射是从单应性派生的,H您可以反转H并直接创建逆映射cv::initUndistortRectifyMap()

例如在 Python 中:

import numpy as np.
map_size = () # fill in your map size
H_inv = np.linalg.inv(H)
map1, map2 = cv2.initUndistortRectifyMap(cameraMatrix=np.eye(3), distCoeffs=np.zeros(5), R=H_inv, newCameraMatrix=np.eye(3), size=map_size, m1type=cv2.CV_32FC1)

OpenCV 文档说明initUndistortRectifyMap()

该函数实际上为 使用的逆映射算法构建映射remap()。也就是说,对于目标图像中的每个像素 (u, v),该函数计算源图像中的相应坐标。

如果你刚刚给出了地图,你必须自己做。然而,新地图坐标的插值并非易事,因为一个像素的支持区域可能非常大。

这是一个简单的 Python 解决方案,它通过点对点映射来反转地图。这可能会留下一些未分配的坐标,而其他坐标将被更新几次。所以地图上可能有漏洞。

这是一个演示这两种方法的小型 Python 程序:

import cv2
import numpy as np


def invert_maps(map_x, map_y):
    assert(map_x.shape == map_y.shape)
    rows = map_x.shape[0]
    cols = map_x.shape[1]
    m_x = np.ones(map_x.shape, dtype=map_x.dtype) * -1
    m_y = np.ones(map_y.shape, dtype=map_y.dtype) * -1
    for i in range(rows):
        for j in range(cols):
            i_ = round(map_y[i, j])
            j_ = round(map_x[i, j])
            if 0 <= i_ < rows and 0 <= j_ < cols:
                m_x[i_, j_] = j
                m_y[i_, j_] = i
    return m_x, m_y


def main():
    img = cv2.imread("pigeon.png", cv2.IMREAD_GRAYSCALE)

    # a simply rotation by 45 degrees
    H = np.array([np.sin(np.pi/4), -np.cos(np.pi/4), 0, np.cos(np.pi/4), np.sin(np.pi/4), 0, 0, 0, 1]).reshape((3,3))
    H_inv = np.linalg.inv(H)
    map_size = (img.shape[1], img.shape[0])

    map1, map2 = cv2.initUndistortRectifyMap(cameraMatrix=np.eye(3), distCoeffs=np.zeros(5), R=H, newCameraMatrix=np.eye(3), size=map_size, m1type=cv2.CV_32FC1)
    map1_inv, map2_inv = cv2.initUndistortRectifyMap(cameraMatrix=np.eye(3), distCoeffs=np.zeros(5), R=H_inv, newCameraMatrix=np.eye(3), size=map_size, m1type=cv2.CV_32FC1)
    map1_simple_inv, map2_simple_inv = invert_maps(map1, map2)

    img1 = cv2.remap(src=img, map1=map1, map2=map2, interpolation=cv2.INTER_LINEAR)
    img2 = cv2.remap(src=img1, map1=map1_inv, map2=map2_inv, interpolation=cv2.INTER_LINEAR)
    img3 = cv2.remap(src=img1, map1=map1_simple_inv, map2=map2_simple_inv,
                               interpolation=cv2.INTER_LINEAR)

    cv2.imshow("Original image", img)
    cv2.imshow("Mapped image", img1)
    cv2.imshow("Mapping forth and back with H_inv", img2)
    cv2.imshow("Mapping forth and back with invert_maps()", img3)
    cv2.waitKey(0)


if __name__ == '__main__':
    main()
于 2017-02-01T14:40:07.543 回答
3

您可以在已知点反转地图并将其插入新网格。它可以正常工作,而失真不是很大。

这是使用 scipy.interpolate.griddata 在 Python 中非常简单的实现:

map_x, map_y = cv2.initUndistortRectifyMap(K, D, None, new_K, image_size, cv2.CV_32FC1)

points =  np.stack([map_x.flatten(), map_y.flatten()], axis=1)
grid = np.mgrid[:map_x.shape[0], :map_y.shape[1]]
values = grid.reshape(2, -1).T[..., ::-1] 

from scipy.interpolate import griddata
grid_y, grid_x = grid
map_back = griddata(points, values, (grid_x, grid_y), method='cubic').astype(map_undistort.dtype)

如果将 CV_32FC2 用于地图,则可以简化点构造:

map_undistort, _ = cv2.initUndistortRectifyMap(K, D, None, new_K, image_size, cv2.CV_32FC2)
points = map_undistort.reshape(-1, 2)
于 2019-04-24T16:06:52.480 回答
2

这是@wcochran 答案的实现。我试图恢复由 lensfunpy 导致的镜头校正。

mod = lensfunpy.Modifier(lens, cam.crop_factor, width, height)
mod.initialize(focal_length, aperture, distance)

undist_coords = mod.apply_geometry_distortion()

## the lens correction part
# im_undistorted = cv2.remap(im, undist_coords, None, cv2.INTER_CUBIC)

# im_undistorted = cv2.remap(im, undist_coords, None, cv2.INTER_LANCZOS4)
# cv2.imwrite(undistorted_image_path, im_undistorted)
undist_coords_f = undist_coords.reshape((-1, 2))
tree = KDTree(undist_coords_f)
def calc_val(point_pos):
    nearest_dist, nearest_ind = tree.query([point_pos], k=5)
    if nearest_dist[0][0] == 0:
        return undist_coords_f[nearest_ind[0][0]]
    # starts inverse distance weighting
    w = np.array([1.0 / pow(d, 2) for d in nearest_dist])
    sw = np.sum(w)
    # embed()
    x_arr = np.floor(nearest_ind[0] / 1080)
    y_arr = (nearest_ind[0] % 1080)
    xx = np.sum(w * x_arr) / sw
    yy = np.sum(w * y_arr) / sw
    return (xx, yy)

un_correction_x = np.zeros((720, 1080))
un_correction_y = np.zeros((720, 1080))

## reverse the lens correction
for i in range(720):
    print("row %d operating" % i)
    for j in range(1080):
        un_correction_x[i][j], un_correction_y[i][j] = calc_val((i, j))
        # print((i, j), calc_val((j, i)))

dstMap1, dstMap2 = cv2.convertMaps(un_correction_x.astype(np.float32), un_correction_y.astype(np.float32), cv2.CV_32FC2)
im_un_undistorted = cv2.remap(im_undistorted, dstMap1, dstMap2, cv2.INTER_LANCZOS4)
于 2019-08-24T09:22:15.803 回答
1

使用OpenCV没有任何标准的方法可以做到这一点。

如果您正在寻找一个完整的即用型解决方案,我不确定我是否可以提供帮助,但我至少可以描述一种我几年前用于完成此任务的方法。

首先,您应该创建与源图像具有相同尺寸的重映射图。我创建了更大尺寸的地图以进行更简单的插值,并在最后一步将它们裁剪为适当的大小。然后你应该用以前的重映射地图中存在的值填充它们(不是那么困难:只需迭代它们,如果地图坐标 x 和 y 位于图像的范围内,将它们的行和列作为新的 y 和 x,并放入旧的新地图的 x 和 y 列和行)。这是一个相当简单的解决方案,但它给出了相当好的结果。为了完美,您应该使用插值方法和相邻像素将旧的 x 和 y 插值为整数值。

在此之后,您应该手动重新映射像素颜色,或者使用像素坐标完全填充重新映射图并使用 OpenCV 的版本。

您将遇到相当具有挑战性的任务:您应该在空白区域插入像素。换句话说,您应该距离最近的非零像素坐标并根据这些距离混合颜色(如果您重新映射颜色)或坐标(如果您继续进行完整的地图计算)分数。实际上线性插值也没有那么难,你甚至可以在OpenCV github pageremap()中查看实现。对于 NN 插值,它会简单得多 - 只需获取最近邻居的颜色/坐标。

最后一项任务是外推重映射像素区域边界之外的区域。OpenCV的算法也可以作为参考。

于 2017-01-26T19:43:14.290 回答
1

一种方法是获取原始地图,遍历其条目并获取 x 和 y 值的楼层和天花板。这给出了 (x,y)、(x f ,y f )、(x c ,y f )、(x f ,y c ) 和 (x c ,y c )周围最接近的四个整数原始源图像。然后,您可以使用其中的每一个作为包含像素值和权重的索引来填充结构,并对这些数据使用您首选的不规则网格插值。

这很容易通过反距离插值实现,因为该结构可以是图像阵列累加并且权重是标量。F是原始源,G是变形图像,F'是恢复图像。地图是M。

将 F' 初始化为 0。创建一个 0 初始化的权重数组 W,其中包含与 F' 相同大小的浮点数。

遍历 M。对于 M 中的每个,找到 4 个整数对及其与 (x,y) 的距离。从 G 中取对应的像素值,按其倒数距离加权,累加到 F' 中

F'(xf|c,yf|c)+=G(i,j)/sqrt((x-xf|c)^2+(y-yf|c)^2)

然后把这个重量累加到

W(xf|c,yf|c)+=1./sqrt((x-xf|c)^2+(y-yf|c)^2).

完成后,通过迭代对 F' 进行归一化,并将每个像素除以其在 W 中的相应条目(如果它不为零)。

此时,图像通常已接近完整,但由于下采样率较高,F' 中的某些像素可能无法填充。因此,您在 W 中来回传递几次以找到 0 权重条目,并对这些像素进行插值来自他们的非空邻居。这部分也可以通过 KNN 搜索和插值来完成,因为它们通常并不多。

与 KNN 方法相比,它易于实现且可扩展性更好(尽管我认为这对小图像非常有用)。缺点是反距离不是最好的插值方案,但如果映射不是太块并且原始没有被下采样很多,它似乎工作得相当好。当然,如果下采样率很高,你就不得不推断出很多丢失的信息,所以它本质上会给出粗略的结果。

如果您想尽可能多地从地图反演中挤出,您可以尝试求解由原始插值方案定义的(可能欠定的)方程组;并非不可能,但具有挑战性。

于 2021-12-15T07:02:45.150 回答
1

KNNRegressor 具有反转网格映射的所有必要组件!

干得好:

from sklearn.neighbors import KNeighborsRegressor

def get_inverse_maps(map1, map2):
    regressor = KNeighborsRegressor(3)
    X = np.concatenate((map2[..., None], map1[..., None]), axis=-1).reshape(-1, 2)
    y = np.indices(map1.shape).transpose((1, 2, 0)).reshape(-1, 2)
    regressor.fit(X, y)
    map_inv = regressor.predict(y).reshape(map1.shape + (2,)).astype(np.float32)
    map_inv2, map_inv1 = map_inv[..., 0], map_inv[..., 1]
    return map_inv1, map_inv2
于 2022-02-08T18:23:08.587 回答
0

在这里。我想我找到了答案。我还没有实现它,如果有人提出了一个不那么繁琐的解决方案(或者发现这个问题有问题),我会选择他们的答案。

问题陈述

令 A 为源图像,B 为目标图像,M 为从 A 的坐标到 B 的坐标的映射,即:

B[k, l, :] == A(M[k, l, 0], M[k, l, 1], :) 
for all k, l in B's coords.

...其中方括号表示使用整数索引的数组查找,而圆括号表示使用浮点索引的双线性插值查找。我们使用更经济的符号重申上述内容:

B = A(M)

我们希望找到一个逆映射 N,它尽可能地将 B 映射回 A:

Find N s.t. A \approx B(N)

可以不用参考 A 或 B 来说明问题:

Find N = argmin_N || M(N) - I_n ||

...其中||*||表示 Frobenius 范数,并且I_n是与 N 具有相同维度的恒等映射,即其中的映射:

I_n[i, j, :] == [i, j]
for all i, j

天真的解决方案

如果 M 的值都是整数,并且 M 是同构的,那么可以直接将 N 构造为:

N[M[k, l, 0], M[k, l, 1], :] = [k, l]
for all k, l

或者在我们的简化符号中:

N[M] = I_m

...其中 I_m 是与 M 具有相同维度的恒等映射。

有两个问题:

  1. M 不是同构,因此对于不在 M 中的值中的任何 [i, j],以上将在 N [i, j, :] 处的 N 中留下“洞”。
  2. M 的值是浮点坐标 [i, j],而不是整数坐标。对于浮点值 i, j,我们不能简单地为双线性插值量 N(i, j, :) 赋值。为了达到等效的效果,我们必须改为设置[i,j]的四个周围角的值N[floor(i), floor(j), :], N[floor(i), ceil(j), :], N[ceil(i), floor(j), :], N[ceil(i), ceil(j), :] 使得插值 N(i, j, :) 等于所需值 [ k, l], 对于 M 中的所有像素映射 [i, j] --> [k, l]。

解决方案

将空 N 构造为浮点数的 3D 张量:

N = zeros(size=(A.shape[0], A.shape[1], 2))

对于 A 的坐标空间中的每个坐标 [i, j],执行:

  1. 在 M 中找到 [i, j] 所在的 2x2 A 坐标网格。计算将这些 A 坐标映射到其相应 B 坐标的单应矩阵 H(由 2x2 网格的像素索引给出)。
  2. 设置 N[i, j, :] = matmul(H, [i, j])

这里可能代价高昂的步骤是在步骤 1 中搜索 M 中环绕 [i, j] 的 2x2 A 坐标网格。蛮力搜索将使整个算法 O(n*m),其中 n 是 A 中的像素数,m 是 B 中的像素数。

为了将其减少到 O(n),可以改为在每个 A 坐标四边形内运行扫描线算法,以识别它包含的所有整数值坐标 [i, j]。这可以预先计算为将整数值 A 坐标 [i, j] 映射到其环绕四边形 B 坐标 [k, l] 的左上角的哈希图。

于 2017-02-02T14:59:13.193 回答
-1

据我了解,您有一个原始图像和一个转换后的图像,并且您希望在不知道的情况下恢复已应用的变换的性质,但假设它是合理的,例如旋转或鱼眼扭曲。

我会尝试在索引图像和普通图像中对图像进行阈值化以将其转换为二进制。然后尝试识别对象。大多数映射至少会保留连通性和欧拉数,大多数索引中的最大对象仍将是平原中最大的对象。

然后花点时间为您匹配的图像/索引对,看看您是否可以删除平移、旋转和缩放。这为您提供了几个反向地图,然后您可以尝试将它们缝合在一起。(如果变换不简单,则很难,但无法解决重构任何变换的一般问题)。

于 2017-01-31T18:05:16.537 回答