我正在为人员和街道分割创建自己的数据集。下面,您会看到一个标记的地面实况 (GT) 图像。
过去我在模型输出和 GT Image 之间做了一个简单的回归(过去我只使用 Streets)。现在我读到,在这种情况下,交叉熵损失更为常见。因为,我的 GT 和模型输出 Image 具有与输入图像相同的宽度w和高度h,所以我必须创建一个大小为h x w x c的数组,其中c是类的数量(在我的情况下为 3,背景、街道、人物)。我认为,这称为 One-Hot-Encoded Array。
我解决了这个问题:
for height in range(len(img_as_np_array)):
for width in range(len(img_as_np_array[0])):
temp = np.zeros(classes)
if get_class(img_as_np_array[height,width]) == 1:
temp[1] = 1
one_hot_label[height,width] = temp
if get_class(img_as_np_array[height,width]) == 2:
temp[2] = 1
one_hot_label[height,width] = temp
其中 get_class(channels) 方法通过像素的颜色决定像素类别。
def get_class(channels):
threshold = 40
# Class 1 corresponds to streets, roads
if channels[0] in np.arange(243-threshold,243+threshold,1) and \
channels[1] in np.arange(169-threshold,169+threshold,1) and \
channels[2] in np.arange(0,threshold,1):
return 1
# Class 2 corresponds to people
if channels[0] in np.arange(0,threshold,1) and \
channels[1] in np.arange(163-threshold,163+threshold,1) and \
channels[2] in np.arange(232-threshold,232+threshold,1):
return 2
# Class 0 corresponds to background respectively other things
return 0
我有两个问题:
我的方法很慢(全高清图像大约需要 3 分钟),有没有办法加快速度?
我注意到颜色在通道值的意义上是不同的。例如,橙色应该是 [243,169,0] (RGB),但我发现像这样的条目 [206,172,8] 甚至是 [207,176,24] 会发生这种情况,因为我将标签存储为 jpg?有没有比我上面的阈值更好的方法来找到橙色和蓝色像素?
编辑:
我自己解决了第一个问题。全高清图像需要 2 或 3 秒:
threshold = 40
class_1_shape_cond_1 = (img_as_array[:, :, 0] >= 243 - threshold) * (img_as_array[:, :, 0] <= 243 + threshold)
class_1_shape_cond_2 = (img_as_array[:, :, 1] >= 171 - threshold) * (img_as_array[:, :, 1] <= 171 + threshold)
class_1_shape_cond_3 = (img_as_array[:, :, 2] >= 0) * (img_as_array[:, :, 2] <= threshold)
class_1_shape = (class_1_shape_cond_1 * class_1_shape_cond_2 * class_1_shape_cond_3)
然后我对第 2 类和第 3 类(其他一切)做同样的事情,我可以做:
class_3_shape = 1 - (class_1_shape + class_2_shape)
之后,我必须调整类型:
class_1_shape = class_1_shape.astype(np.uint8)
class_2_shape = class_2_shape.astype(np.uint8)
class_3_shape = class_3_shape.astype(np.uint8)
问题 2 仍然是一个开放的问题。