我希望有人可以解释 Keras 中的输入层和 Tensorflow 中的占位符之间的区别(如果有的话)?
我调查得越多,两者看起来就越相似,但到目前为止,我并不相信 100%。
以下是我观察到的支持输入层和 tf 占位符相同的说法:
1) keras.Input() 返回的张量可以像 tf.Session 的 run 方法的 feed_dict 中的占位符一样使用。这是一个使用 Keras 的简单示例的一部分,它添加了两个张量(a 和 b)并将结果与第三个张量(c)连接起来:
model = create_graph()
con_cat = model.output[0]
ab_add = model.output[1]
# These values are used equivalently to tf.Placeholder() below
mdl_in_a = model.input[0]
mdl_in_b = model.input[1]
mdl_in_c = model.input[2]
sess = k.backend.get_session()
a_in = rand_array() # 2x2 numpy arrays
b_in = rand_array()
c_in = rand_array()
a_in = np.reshape( a_in, (1,2,2))
b_in = np.reshape( b_in, (1,2,2))
c_in = np.reshape( c_in, (1,2,2))
val_cat, val_add = sess.run([con_cat, ab_add],
feed_dict={ mdl_in_a: a_in, mdl_in_b: b_in, mdl_in_c: c_in})
2) Tensorflow Contrib 关于 Keras输入层的文档在其参数描述中提到了占位符:
“稀疏:一个布尔值,指定要创建的占位符是否稀疏”
以下是我观察到的支持输入层和 tf 占位符不一样的说法:
1)我看到人们使用 tf.Placeholder 代替输入层返回的张量。就像是:
a_holder = tf.placeholder(tf.float32, shape=(None, 2,2))
b_holder = tf.placeholder(tf.float32, shape=(None, 2,2))
c_holder = tf.placeholder(tf.float32, shape=(None, 2,2))
model = create_graph()
con_cat, ab_add = model( [a_holder, b_holder, c_holder])
sess = k.backend.get_session()
a_in = rand_array() # 2x2 numpy arrays
b_in = rand_array()
c_in = rand_array()
a_in = np.reshape( a_in, (1,2,2))
b_in = np.reshape( b_in, (1,2,2))
c_in = np.reshape( c_in, (1,2,2))
val_cat, val_add = sess.run([con_cat, ab_add],
feed_dict={ a_holder: a_in, b_holder: b_in, c_holder: c_in})