下面的代码会代表一层还是两层?我很困惑,因为神经网络中不应该还有一个输入层吗?
input_layer = slim.fully_connected(input, 6000, activation_fn=tf.nn.relu)
output = slim.fully_connected(input_layer, num_output)
是否包含隐藏层?我只是想能够可视化网络。提前致谢!
下面的代码会代表一层还是两层?我很困惑,因为神经网络中不应该还有一个输入层吗?
input_layer = slim.fully_connected(input, 6000, activation_fn=tf.nn.relu)
output = slim.fully_connected(input_layer, num_output)
是否包含隐藏层?我只是想能够可视化网络。提前致谢!
此外,TF-Slim 的 slim.stack 运算符允许调用者重复应用具有不同参数的相同操作来创建堆栈或层塔。slim.stack 还为每个创建的操作创建一个新的 tf.variable_scope。例如,创建多层感知器 (MLP) 的简单方法:
# Verbose way:
x = slim.fully_connected(x, 32, scope='fc/fc_1')
x = slim.fully_connected(x, 64, scope='fc/fc_2')
x = slim.fully_connected(x, 128, scope='fc/fc_3')
# Equivalent, TF-Slim way using slim.stack:
slim.stack(x, slim.fully_connected, [32, 64, 128], scope='fc')
所以这里提到的网络是一个[32, 64,128]
网络——一个隐藏大小为64的层。