您可以将 EML 视为 CDF 概率函数的一种 RMSE
给定 N 个类别,您所需要的只是每个样本的归一化概率分数。在神经网络领域,这是通过 softmax 激活函数作为输出层来实现的
EML 只是比较预测与现实的 CDF
在一个有 10 个类别的分类问题中,对于单个样本,我们可以有这些数组
y_true = [0,0,0,1,0,0,0,0,0,0] # 样本属于第 4 类
y_pred = [0.1,0,0,0.9,0,0,0,0,0,0] # softmax 层的概率输出
在它们上,我们计算 CDF 并获得以下分数:
CDF_y_true = [0,0,0,1,1,1,1,1,1,1]
CDF_y_pred = [0.1,0.1,0.1,1,1,1,1,1,1,1]
如上所述,EML 计算此 CDF 上的 RMSE
y_true = np.asarray([0.,0.,0.,1.,0.,0.,0.,0.,0.,0.])
y_pred = np.asarray([0.1,0.,0.,0.9,0.,0.,0.,0.,0.,0.])
cdf_true = K.cumsum(y_true, axis=-1)
cdf_pred = K.cumsum(y_pred, axis=-1)
emd = K.sqrt(K.mean(K.square(cdf_true - cdf_pred), axis=-1))
以谷歌在 TID2013 上的 NIMA 论文为例,N=10,标签以浮点分数的形式表示。为了使用 EML 训练网络,需要遵循以下步骤:
- 以 10 个间隔将浮点分数数字化
- one-hot 对标签进行编码以获得 softmax 概率并最小化 EML
在训练结束时,我们的 NN 能够在给定图像上为每个类别生成概率分数。我们必须将此分数转换为具有相关标准偏差的平均质量分数,如本文中定义的那样。为此,我们遵循论文中定义的程序
箱 = [1,2,3,4,5,6,7,8,9,10]
y_pred = [0.1,0,0,0.9,0,0,0,0,0,0] # softmax 层的概率输出
mu_score = sum(bins*y_pred) = 1*0.1 + 2*0 + 3*0 + 4*0.9 + ... + 10*0
sigma_score = sum(((bins - mu_score)**2)*y_pred)**0.5
bins = np.arange(1,11)
y_pred = np.asarray([0.1,0.,0.,0.9,0.,0.,0.,0.,0.,0.])
mu_score = np.sum(bins*y_pred)
std_score = np.sum(((bins - mu_score)**2)*y_pred)**0.5