1

我正在尝试基于从 GLCM 中提取的特征构建图像分类模型。我想屏蔽一些图像以改进模型,当然我不希望 GLCM 考虑这些像素。基于以下帖子,我已经实施并进行了测试,以确保 GLCM 对蒙版图像正常工作

1)拍摄图像并创建裁剪版本和蒙版版本(在裁剪的相同像素中)。
2
3 4

2) 将图像转换为 int32 类型并执行以下操作:

#adding 1 to all pixels and setting masked pixels as zero. 
mask_img+=1
crop_img+=1
mask_img[:,:,2][:,int(img.shape[1]/2):int(img.shape[1])] = 0

glcm_crop = greycomatrix(crop_img[:,:,2], 
                levels=257,
                distances=1, 
                angles=0,
                symmetric=True,
                normed=True)

glcm_masked = greycomatrix(mask_img[:,:,2], 
                levels=257,
                distances=1, 
                angles=0,
                symmetric=True,
                normed=True)

#discarding the first row and column that represent zero value pixels
glcm_masked =glcm_masked[1:, 1:, :, :]
glcm_crop = glcm_crop[1:, 1:, :, :]

所以在这个测试中,如果 GLCM 不受蒙版像素的影响,我预计蒙版和裁剪图像的矩阵将是相同的。但实际上矩阵是不同的。

我对 GLCM 工作原理的理解是否正确?从理论上讲,这两个矩阵应该相等是否有意义?

4

1 回答 1

1

让我们慢慢看代码。首先我们导入必要的模块,加载一个类型的图像,np.int32并通过以下方式增加图像所有像素的像素强度1

import numpy as np
from skimage import data
from skimage.feature import greycomatrix

img = data.astronaut().astype(np.int32) + 1

然后我们定义图像的形状和强度级别的数量:

rows, cols, _ = img.shape
levels = 256

现在我们裁剪图像的蓝色通道,这样我们只保留左半部分:

crop_img = img[:, :cols//2, 2]

图像的蓝色通道的右半部分被屏蔽如下:

mask_img = img[:, :, 2].copy()
mask_img[:, cols//2:] = 0

为了这个例子,包装 GLCM 计算很方便:

def glcm_wrapper(arr):
    glcm = greycomatrix(arr, levels=levels+1, distances=[1], angles=[0])
    return np.squeeze(glcm)[1:, 1:]

我们准备检查通过这两种方法得到的 GLCM 是否相同:

glcm_crop = glcm_wrapper(crop_img)
glcm_mask = glcm_wrapper(mask_img)

print(np.array_equal(glcm_crop, glcm_mask))

如果你运行上面的所有代码片段,你会得到True.

请务必注意,如果将参数传递normed=Truegreycomatrix,则生成的 GLCM 会有所不同。如果您希望对矩阵进行归一化,则必须在删除第一行和第一列后对 GLCM 进行归一化。试试这个来说服自己:

glcm_crop = glcm_crop/glcm_crop.sum()
glcm_mask = glcm_mask/glcm_mask.sum()
print(np.allclose(glcm_crop, glcm_mask))
于 2020-06-05T10:25:46.030 回答