这是在 TensorFlow 中制作自定义估算器的指南: https ://www.tensorflow.org/guide/custom_estimators
隐藏层使用tf.nn.relu
:
# Build the hidden layers, sized according to the 'hidden_units' param.
for units in params['hidden_units']:
net = tf.layers.dense(net, units=units, activation=tf.nn.relu)
我稍微改变了这个例子来学习XOR, withhidden_units=[4]
和n_classes=2
。当激活函数更改为tf.nn.sigmoid
时,示例照常工作。为什么会这样?它是否仍然给出正确的结果,因为 XOR 输入只是零和一?
这两个函数都给出了平滑的损失曲线收敛到零线。