我想在 NumPy 中重新创建 Xavier 初始化(使用基本函数),就像 TensorFlow2 为 CNN 所做的那样。以下是我在 NumPy 中学习 Xavier 初始化的方法:
# weights.shape = (2,2)
np.random.seed(0)
nodes_in = 2*2
weights = np.random.rand(2,2) * np.sqrt(1/nodes_in)
>>>array([[0.27440675, 0.35759468],
[0.30138169, 0.27244159]])
这是我为逻辑回归模型学习 Xavier 初始化的方式。似乎对于卷积神经网络,它应该有所不同,但我不知道如何。
initializer = tf.initializers.GlorotUniform(seed=0)
tf.Variable(initializer(shape=[2,2],dtype=tf.float32))
>>><tf.Variable 'Variable:0' shape=(2, 2) dtype=float32, numpy=
array([[-0.7078647 , 0.50461936],
[ 0.73500216, 0.6633029 ]], dtype=float32)>
当 TensorFlow文档解释“fan_in”和“fan_out”时,我感到很困惑。我猜这就是问题所在。有人可以帮我把它弄糊涂吗?
非常感谢!
[更新]:
当我遵循tf.keras.initializers.GlorotUniform文档时,我仍然没有得到相同的结果:
# weights.shape = (2,2)
np.random.seed(0)
fan_in = 2*2
fan_out = 2*2
limit = np.sqrt(6/(fan_in + fan_out))
np.random.uniform(-limit,limit,size=(2,2))
>>>array([[0.08454747, 0.37271892],
[0.17799139, 0.07773995]])