SELU 激活函数 ( https://github.com/bioinf-jku/SNNs/blob/master/selu.py ) 要求将输入归一化,使其平均值为 0.0,方差为 1.0。因此,我尝试对原始数据应用tf.layers.batch_normalization
( axis=-1
) 以满足该要求。每批原始数据的形状为[batch_size, 15]
,其中 15 表示特征数。下图显示了从tf.layers.batch_normalization
(约 20 个时期)返回的 5 个这些特征的方差。它们并不像预期的那样都接近 1.0。平均值也并非都接近 0.0(图表未显示)。
我应该如何独立地对 15 个特征进行标准化(我希望标准化后的每个特征都具有 mean = 0 和 var = 1.0)?