问题标签 [mnist]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
4 回答
1161 浏览

python - 如何在 tensorflow 上保存来自 MNIST 测试的训练数据权重以供将来使用?

我在保存 MNIST tensorflow 示例的训练权重 (W) 时遇到问题,如此处所述。MNIST 张量流。如果我的理解是正确的,我们将来需要其他测试用例(不是 MNIST 测试用例)的训练权重。我尝试使用 print W.eval() 来获取重量;但它恰好为我提供了一个 784x10 的零矩阵。如何以数组形式或 .csv 格式(不是 .cpkt)获得权重?

0 投票
1 回答
9349 浏览

apache-spark - 运行 DeepLearning4J MNIST 示例时出现 java.lang.OutOfMemoryError

这是我在单个节点本地 Spark 集群上所做的事情:

这就是我得到的:

这里是完整的堆栈跟踪:

spark-submit --class org.deeplearning4j.examples.cnn.MnistExample ./target/dl4j-spark-cdh5-examples-1.0-SNAPSHOT.jar 21:21:13,414 INFO ~ 加载数据....

警告:无法加载本机系统 BLAS ND4J 性能将降低 请安装本机 BLAS 库,例如 OpenBLAS 或 IntelMKL 详情请参阅http://nd4j.org/getstarted.html#open

21:21:20,571 信息 ~ 构建模型.... 21:21:20,776 警告 ~ 目标函数自动设置为最小化。在神经网络配置中设置 stepFunction 以更改默认设置。21:21:20,886 INFO ~ --- 开始网络训练 --- [Stage 0:> (0 + 6) / 6]

ParallelCollectionPartition$$anonfun$readObject$1.apply$mcV$sp(ParallelCollectionRDD.scala:74) at org.apache.spark.util.Utils$.tryOrIOException(Utils.scala:1204) 21:24:12,383 错误 ~ 任务 5 in阶段 0.0 失败 1 次;线程“主”org.apache.spark.SparkException 中的中止作业异常:作业因阶段失败而中止:阶段 0.0 中的任务 5 失败 1 次,最近失败:阶段 0.0 中丢失任务 5.0(TID 5,本地主机):java .lang.OutOfMemoryError:在 java.io.ObjectInputStream.readArray(ObjectInputStream.java:1670) 在 java.io.ObjectInputStream.readObject0(ObjectInputStream) 的 java.lang.reflect.Array.newInstance(Array.java:70) 的 Java 堆空间.java:1344) 在 java.io.ObjectInputStream.defaultReadFields(ObjectInputStream.java:1990) 在 java.io.ObjectInputStream.defaultReadObject(ObjectInputStream.java:

驱动程序堆栈跟踪:在 org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1 的 org.apache.spark.scheduler.DAGScheduler.org$apache$spark$scheduler$DAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1431)。在 scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala: 59) 在 org.apache.spark.scheduler.DAGScheduler.abortStage(DAGScheduler.scala:1418) 在 org.apache.spark.scheduler.DAGScheduler$$ 的 scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:47) anonfun$handleTaskSetFailed$1.apply(DAGScheduler.scala:799) at org.apache.spark.scheduler.DAGScheduler$$anonfun$handleTaskSetFailed$1.apply(DAGScheduler.scala:799) at scala.Option.foreach(Option.scala:236) 在 org.apache.spark.scheduler.DAGSchedulerEventProcessLoop.doOnReceive(DAGScheduler.scala:1640) 在 org.apache.spark.scheduler.DAGSchedulerEventProcessLoop 的 org.apache.spark.scheduler.DAGScheduler.handleTaskSetFailed(DAGScheduler.scala:799) .onReceive(DAGScheduler.scala:1599) at org.apache.spark.scheduler.DAGSchedulerEventProcessLoop.onReceive(DAGScheduler.scala:1588) at org.apache.spark.util.EventLoop$$anon$1.run(EventLoop.scala:48 ) 在 org.apache.spark.scheduler.DAGScheduler.runJob(DAGScheduler.scala:620) 在 org.apache.spark.SparkContext.runJob(SparkContext.scala:1832) 在 org.apache.spark.SparkContext.runJob(SparkContext. scala:1845) at org.apache.spark.SparkContext.runJob(SparkContext.scala:1858) at org.apache.spark.SparkContext.runJob(SparkContext.scala:1929) at org.apache.spark.rdd.RDD.count (RDD.scala:第1157章.spark.impl.multilayer.SparkDl4jMultiLayer.fitDataSet(SparkDl4jMultiLayer.java:239) 在 org.deeplearning4j.examples.cnn.MnistExample.main(MnistExample.java:132) 在 sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 在 sun .reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 在 sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 在 java.lang.reflect.Method.invoke(Method.java:606) 在 org.apache。 spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:731) at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:181) at org. apache.spark。deploy.SparkSubmit$.submit(SparkSubmit.scala:206) 在 org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:121) 在 org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)引起:java.lang.OutOfMemoryError:java.io.ObjectInputStream.readArray(ObjectInputStream.java:1670) 处 java.lang.reflect.Array.newInstance(Array.java:70) 处 java.io.ObjectInputStream 处的 Java 堆空间.readObject0(ObjectInputStream.java:1344) 在 java.io.ObjectInputStream.defaultReadFields(ObjectInputStream.java:1990) 在 java.io.ObjectInputStream.defaultReadObject(ObjectInputStream.java:500) 在 org.nd4j.linalg.api.buffer。 org.nd4j.linalg.api.buffer.BaseDataBuffer.readObject(BaseDataBuffer.java:868) 的 BaseDataBuffer.doReadObject(BaseDataBuffer.java:880) sun.reflect.GeneratedMethodAccessor7.invoke(Unknown Source) 的 sun.reflect。DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at java.io.ObjectStreamClass.invokeReadObject(ObjectStreamClass.java:1017) at java.io.ObjectInputStream.readSerialData (ObjectInputStream.java:1893) 在 java.io.ObjectInputStream.readOrdinaryObject(ObjectInputStream.java:1798) 在 java.io.ObjectInputStream.readObject0(ObjectInputStream.java:1350) 在 java.io.ObjectInputStream.defaultReadFields(ObjectInputStream.java: 1990) 在 java.io.ObjectInputStream.readSerialData(ObjectInputStream.java:1915) 在 java.io.ObjectInputStream.readOrdinaryObject(ObjectInputStream.java:1798) 在 java.io.ObjectInputStream.readObject0(ObjectInputStream.java:1350) 在 java. io.ObjectInputStream.defaultReadFields(ObjectInputStream.java:1990) 在 java.io.ObjectInputStream。readSerialData(ObjectInputStream.java:1915) 在 java.io.ObjectInputStream.readOrdinaryObject(ObjectInputStream.java:1798) 在 java.io.ObjectInputStream.readObject0(ObjectInputStream.java:1350) 在 java.io.ObjectInputStream.readArray(ObjectInputStream.java :1706) 在 java.io.ObjectInputStream.readObject0(ObjectInputStream.java:1344) 在 java.io.ObjectInputStream.defaultReadFields(ObjectInputStream.java:1990) 在 java.io.ObjectInputStream.readSerialData(ObjectInputStream.java:1915) 在 java .io.ObjectInputStream.readOrdinaryObject(ObjectInputStream.java:1798) 在 java.io.ObjectInputStream.readObject0(ObjectInputStream.java:1350) 在 java.io.ObjectInputStream.defaultReadFields(ObjectInputStream.java:1990) 在 java.io.ObjectInputStream。 org.apache.spark.rdd 中的 defaultReadObject(ObjectInputStream.java:500)。ParallelCollectionPartition$$anonfun$readObject$1.apply$mcV$sp(ParallelCollectionRDD.scala:74) at org.apache.spark.util.Utils$.tryOrIOException(Utils.scala:1204) 21:24:12,769 错误 ~ 任务异常4.0 在阶段 0.0 (TID 4) org.apache.spark.TaskKilledException at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:204) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java :1145) 在 java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) 在 java.lang.Thread.run(Thread.java:744) 21:30:18,649 错误 ~ 线程线程中未捕获的异常- 3 org.apache.spark.SparkException:在 org.apache.spark.rpc.RpcEndpointRef.askWithRetry(RpcEndpointRef.scala:118) 在 org.apache.spark.rpc.RpcEndpointRef 处发送消息 [message = StopBlockManagerMaster] 时出错。askWithRetry(RpcEndpointRef.scala:77) at org.apache.spark.storage.BlockManagerMaster.tell(BlockManagerMaster.scala:225) at org.apache.spark.storage.BlockManagerMaster.stop(BlockManagerMaster.scala:217) at org.apache .spark.SparkEnv.stop(SparkEnv.scala:97) at org.apache.spark.SparkContext$$anonfun$stop$12.apply$mcV$sp(SparkContext.scala:1756) at org.apache.spark.util.Utils $.tryLogNonFatalError(Utils.scala:1229) at org.apache.spark.SparkContext.stop(SparkContext.scala:1755) at org.apache.spark.SparkContext$$anonfun$3.apply$mcV$sp(SparkContext.scala: 596)在 org.apache.spark.util.SparkShutdownHook.run(ShutdownHookManager.scala:267)在 org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1$$anonfun$apply$mcV$sp$1.apply$ mcV$sp(ShutdownHookManager.scala:239) 在 org.apache.spark.util。SparkShutdownHookManager$$anonfun$runAll$1$$anonfun$apply$mcV$sp$1.apply(ShutdownHookManager.scala:239) at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1$$anonfun$apply$mcV$ sp$1.apply(ShutdownHookManager.scala:239) at org.apache.spark.util.Utils$.logUncaughtExceptions(Utils.scala:1765) at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply$ mcV$sp(ShutdownHookManager.scala:239) at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply(ShutdownHookManager.scala:239) at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll $1.apply(ShutdownHookManager.scala:239)org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply$mcV$sp(ShutdownHookManager.scala:239) 的 org.apache.spark.util.Utils$.logUncaughtExceptions(Utils.scala:1765) .spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply(ShutdownHookManager.scala:239) at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply(ShutdownHookManager.scala:239)org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply$mcV$sp(ShutdownHookManager.scala:239) 的 org.apache.spark.util.Utils$.logUncaughtExceptions(Utils.scala:1765) .spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply(ShutdownHookManager.scala:239) at org.apache.spark.util.SparkShutdownHookManager$$anonfun$runAll$1.apply(ShutdownHookManager.scala:239)

有任何想法吗?

0 投票
1 回答
2818 浏览

python - 哪个 cmap (colormap) 与 matplotlib imshow() 一起使用,将 MNIST 数据集图像显示为白色背景上的黑色字符

原始的 MNIST 图像是白色背景,上面有灰度字符。0 代表白色,255 代表黑色,中间是灰色阴影。我正在使用keras使用相同格式提供的数据集的副本。

只是为了看东西,我matplotlib用来显示数据集中的示例,但是当我选择 的 cmap 时'gray',我得到黑色背景和白色字符,如下所示。

在此处输入图像描述

是否有另一个颜色图可以正确地将图像显示为白色背景上的黑色?

0 投票
1 回答
269 浏览

python - PyBrain mnist 分类

我正在尝试使用 PyBrain 对 mnist 数据进行分类。

下面是训练代码:

当我在测试数据集上激活网络时,结果如下所示:

其中 argmax 值表示类。对于给定的列表 argmax 是 7。

但为什么?当我准备数据集时,您可以看到result[labels_train[i]] = 1我需要相应的神经元给我 1 和其他必须为零的位置。所以我期待[0, 0, 0, 0, 0, 0, 0, 1, 0, 0]

我读过 _convertToOneOfMany 函数可以产生这样的输出。所以我添加了它,但没有任何改变。我做错了什么?

0 投票
1 回答
3450 浏览

tensorflow - 如何为张量流准备我自己的数据?

我在 ubuntu 14.04 上安装了 Tensorflow。我完成了 MNIST For ML Beginners教程。我明白了。

也不,我尝试使用我自己的数据。我的训练数据为 T[1000][10]。标签为 L[2]、1 或 0。

如何访问我的数据mnist.train.images

0 投票
3 回答
1284 浏览

python - Placeholder missing error in Tensor flow for CNN

I am using tensor flow to run a convolution neural network on MNIST database. But I am getting the following error.

tensorflow.python.framework.errors.InvalidArgumentError: You must feed a value for placeholder tensor 'x' with dtype float [[Node: x = Placeholderdtype=DT_FLOAT, shape=[], _device="/job:localhost/replica:0/task:0/cpu:0"]]

I thought I correctly update the value of x using feed_dict, but its saying i haven't update the value of placeholder x.

Also, is there any other logical flaw in my code?

Any help would be greatly appreciated. Thanks.

0 投票
1 回答
1675 浏览

python - 在 Tensorflow 中使用 Adadelta 优化器时出现未初始化值错误

我正在尝试使用 Adagrad 优化器构建 CNN,但出现以下错误。

tensorflow.python.framework.errors.FailedPreconditionError:尝试使用未初始化的值Variable_7/Adadelta

[[节点:Adadelta/update_Variable_7/ApplyAdadelta = ApplyAdadelta[T=DT_FLOAT, _class=["loc:@Variable_7"], use_locking=false, _device="/job:localhost/replica:0/task:0/cpu:0 "](Variable_7, Variable_7/Adadelta, Variable_7/Adadelta_1, Adadelta/lr, Adadelta/rho, Adadelta/epsilon, gradients/add_3_grad/tuple/control_dependency_1)]] 由op u'Adadelta/update_Variable_7/ApplyAdadelta'引起,

优化器 = tf.train.AdadeltaOptimizer(learning_rate).minimize(cross_entropy)

如本文所述,我尝试在 adagrad 语句之后重新初始化会话变量,但这也无济于事。

我怎样才能避免这个错误?谢谢。

Tensorflow:使用 Adam 优化器

0 投票
1 回答
1434 浏览

python - TensorFlow:形状错误

在训练了我的 MNIST 分类网络之后,我想对测试数据进行“预测”,并得到以下关于测试输入形状的错误

ValueError:无法为具有形状(维度(无),维度(784))的张量u'Placeholder_2:0'提供形状(1、28000、784)的值

那么形状怎么可能是 (28000, 784)(它应该是),但是当输入到训练好的网络时,它会显示为 (1, 28000, 784)?

顺便说一句,为了训练,我通过以下方式包含了训练数据

因为训练数据的第一列说明了标签。我正在使用 Pandas 进行导入。

0 投票
0 回答
47 浏览

numpy - 如何改善 numpy 的广播

我正在尝试使用 numpy 在 python 中实现具有 Mahalanobis 距离的 k-NN。但是,当我使用广播时,下面的代码运行非常缓慢。请教我如何提高 numpy 速度或更好地实现这一点。

0 投票
2 回答
625 浏览

tensorflow - TensorFlow 如何将图像缩小到 7x7?

我正在阅读Deep MNIST for Experts教程。在Densely Connected Layer部分的开头,它说“[...] 图像大小已减小到 7x7”。

我似乎不知道他们是如何得到这个 7x7 矩阵的。据我了解,我们从 28x28 开始,有两层 5x5 卷积核。28 除以 4 是 7,但不能除以 5。