0

我正在尝试从https://arxiv.org/abs/1602.02697复制结果,但在黑盒教程 https://github.com/tensorflow/cleverhans/blob/master/cleverhans_tutorials/mnist_blackbox 之后使用图像大小为 224x224x3 。 py

但是,我遇到了内存消耗错误(粘贴在下面)。在我看来,雅可比数据集扩充可能是源问题: https ://github.com/tensorflow/cleverhans/blob/master/cleverhans/utils_tf.py#L657

但是,我不知道如何检查。

我在 8GB GPU 上运行代码。

难道这种方法不能处理更大的图像?我怎样才能解决这个问题?该方法的复杂性是什么?

...
2019-02-07 18:21:32.984709: I tensorflow/core/common_runtime/bfc_allocator.cc:645] Sum Total of in-use chunks: 7.31GiB
2019-02-07 18:21:32.984715: I tensorflow/core/common_runtime/bfc_allocator.cc:647] Stats:
Limit:                  7860224000
InUse:                  7848987648
MaxInUse:               7848987648
NumAllocs:                10041921
MaxAllocSize:           2424832000

2019-02-07 18:21:32.984831: W tensorflow/core/common_runtime/bfc_allocator.cc:271] ****************************************************************************************************
2019-02-07 18:21:32.984849: W tensorflow/core/framework/op_kernel.cc:1273] OP_REQUIRES failed at transpose_op.cc:199 : Resource exhausted: OOM when allocating tensor with shape[4,256,56,56] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc
4

1 回答 1

0

这很可能是由于X_batch每次迭代时双倍的大小p_idxs。如果你用 CleverHans 中batch_eval提供的调用替换 L698-703,你很可能甚至在 ImageNet 上也能计算出来。如果这解决了您的问题,请随时作为 PR 提交给 GitHub 上的 CleverHans。

于 2019-02-15T22:51:55.580 回答