我查看了MNIST 示例,并注意到当图像的数组被展平为 728 数组时,如果该数组是随机的,这有关系吗?我的意思是 NN 是否考虑了数据的邻接性,或者是否有一个输入节点放置输入编号(因此有 728 个节点)。
我要问的是,如果我像示例中那样使用展平的图像进行训练,我是否会得到相同的网络,就像我随机化 728 数据数组一样?
我查看了MNIST 示例,并注意到当图像的数组被展平为 728 数组时,如果该数组是随机的,这有关系吗?我的意思是 NN 是否考虑了数据的邻接性,或者是否有一个输入节点放置输入编号(因此有 728 个节点)。
我要问的是,如果我像示例中那样使用展平的图像进行训练,我是否会得到相同的网络,就像我随机化 728 数据数组一样?
取决于您正在查看的 mnist 示例。convolutional.py 在图像上运行一个 5x5 的空间卷积窗口,它确实考虑了空间相关性。
使用简单权重矩阵的 MNIST 初学者示例:
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
才不是。只要您以相同的方式排列所有输入,您就可以排列点中的条目顺序而不更改任何内容。
(卷积方法在大多数图像识别应用中获胜是有原因的——空间局部性很有用。:)
您正在查看非常基本的教程,其重点是让您熟悉 TF 和一些重要的 ML 概念,这些概念将用于许多更难的模型。他们并没有尝试做任何困难的事情(事实上,准确度并不高于通过开箱即用的 SVM 实现的准确度)。如果您仔细阅读教程,他们会说:
我们如何展平阵列并不重要,只要我们在图像之间保持一致即可。
和
展平数据会丢弃有关图像 2D 结构的信息。那不是很糟糕吗?好吧,最好的计算机视觉方法确实利用了这种结构,我们将在后面的教程中介绍。但是我们将在这里使用的简单方法,softmax 回归,不会。
您关于网络的问题:网络的拓扑结构相同,权重/偏差会不同。
卷积神经网络的一个例子也考虑了数据的邻接性