我猜DNN
在意思上使用的TensorFlow
意思是“深度神经网络”。但我发现这非常令人困惑,因为“深度”神经网络的概念似乎在其他地方被广泛使用,以表示通常具有多个卷积和/或相关层(ReLU、池化、dropout 等)的网络。
相比之下,很多人会遇到这个术语的第一个实例(在tfEstimator Quickstart 示例代码中)我们发现:
# Build 3 layer DNN with 10, 20, 10 units respectively.
classifier = tf.estimator.DNNClassifier(feature_columns=feature_columns,
hidden_units=[10, 20, 10],
n_classes=3,
model_dir="/tmp/iris_model")
这听起来很肤浅,甚至更像是老式多层感知器 ( MLP ) 网络。但是,没有提及DNN
作为该接近确定来源的替代术语。那么DNN
TensorFlowtf.estimator
上下文中的 a 实际上是 aMLP
吗?有关参数的文档hidden_units
表明是这种情况:
- hidden_units:每层隐藏单元数的可迭代。所有层都是完全连接的。前任。[64, 32] 表示第一层有 64 个节点,第二层有 32 个。
上面写满了 MLP。这种理解正确吗?因此是DNN
用词不当,如果是这样,DNNClassifier
理想情况下应该弃用MLPClassifier
吗?还是代表深度神经网络DNN
以外的东西?