问题标签 [max-pooling]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
lua - 在 Torch/Lua 中,当张量流过网络时,我可以拆分/连接张量吗?
我是 Lua/Torch 的新手。我有一个包含最大池层的现有模型。我想将输入带入该层并将其拆分为块,将每个块馈送到一个新的最大池化层。
我编写了一个独立的 Lua 脚本,它可以将张量分成两个块并将这两个块转发到具有两个最大池化层的网络中。
但是试图将其重新集成到现有模型中,我无法弄清楚如何修改数据“中流”来进行张量拆分。我已经阅读了文档并且看不到任何功能或架构示例,沿线某处将张量分成两个并分别转发每个部分。
有任何想法吗?谢谢!
python-3.x - TensorFlow:为什么 avg_pool 忽略一个步幅维度?
我试图跨越通道维度,以下代码表现出令人惊讶的行为。我的期望是,当输入完全相同的参数时tf.nn.max_pool
,应该产生相同形状的张量。tf.nn.avg_pool
不是这种情况。
这打印
显然,我误解了一些东西。
python - 数组填充 Numpy
我有以下矩阵:
它有尺寸:2,3,2,2
. 我想要做的是将它与以下矩阵相乘:
这有尺寸2,3,4,4
。所以我需要做的是以这样一种方式填充第一个矩阵,即我们将每个条目复制 4 次,以便可以进行乘法(其中 3 个结果将详细说明为 0,最终结果将是乘法我想)。因此,我需要将第一个矩阵转换为如下所示:
等等...
更新:
这是我正在使用的场景。
deep-learning - 如何从 HxWxD 张量中获得 D 平均值
如何在 Deeplearnjs 中创建一个图形元素,将我的 [h, w, d] 形状张量变成一个 [d] 形状,其中每个都是该层的最大值。如果 h 和 w 相同,则可以使用 maxpool 函数来完成。如果喜欢同样的意思。使用 conv2d 可以实现均值,但前提是 w 和 h 相等。
我需要在图表中使用它,以便我可以应用培训。
python - tf.nn.max_pool_with_argmax 张量流中 argmax 的使用
我正在尝试使用 argmax 结果tf.nn.max_pool_with_argmax()
来索引另一个张量。为简单起见,假设我正在尝试实现以下内容:
现在我的问题是如何实现必要的索引操作input[argmax]
以达到预期的结果?我猜这涉及到一些使用tf.gather_nd()
和相关调用,但我无法弄清楚。如有必要,我们可以假设输入具有[BatchSize, Height, Width, Channel]
维度。
谢谢你的帮助!
垫
tensorflow - Tenssoflow 中的 maxpooling 错误;检查失败:dnnPoolingCreateForward_F32(..) == E_SUCCESS (-127 vs. 0)
我正在从这个博客学习 tesnorflow:http: //www.wildml.com/2015/12/implementing-a-cnn-for-text-classification-in-tensorflow/
我正在运行的代码是: https ://github.com/dennybritz/cnn-text-classification-tf/blob/master/train.py
我已经在虚拟环境中从源安装了 tensorflow,在仅 CPU 环境中使用 followinbg bazel build 命令: bazel build --config=mkl ...
这是确切的错误:
“2018-01-16 03:15:27.783040: F tensorflow/core/kernels/mkl_maxpooling_op.cc:157] 检查失败:dnnPoolingCreateForward_F32(&prim_pooling_fwd, primAttr, algorithm, lt_user_input, params.kernel_size, params.kernel_stride, params.in_offset, dnnBorderZerosAsymm) == E_SUCCESS (-127 vs. 0) Aborted "
我已经调试了写入 sess.run 的行的错误,我相信它有一些事情要做 mkl_maxpooling,因为我已经安装了带有 INTEL cpu 的 mkl 优化的 tensorflow
python - Keras max_pool3d 得到了预期的关键字参数“data_format”
我正在与使用 Keras 的学生一起举办研讨会,所有学生都在 Windows 中安装了相同的 anaconda3。
以下代码为大多数学生提供了错误,除了其中 2 人:
在文档中,您可以看到该函数maxpooling3d()
采用了其他可选参数,例如 exact data_format
,但由于我们甚至没有指定它,为什么会出现此错误?为什么它在所有安装中都不一致?
python - 如何在神经网络模型中使用 TensorFlow 会话
我正在关注一个关于编写宪法神经网络的 sentdex 教程,我想知道我是否可以找出我自己的池化层。问题是,作为这个池化层的一部分,我必须使用会话执行 tensorflow 函数。
但问题是,至少我认为,因为我从一个占位符开始一切
基本上我的问题是:如果正在传递占位符变量,我如何使用神经网络模型内部的张量流会话来计算一些东西?非常感谢您的帮助!完整代码:
编辑:遵循Maxim的建议后,我运行它并抛出错误
它可以追溯到:
machine-learning - 了解卷积神经网络的输出
我一直在尝试理解卷积神经网络,但我搞砸了它的输出大小。
公式非常简单,但我最终还是让自己感到困惑。我从 Internet 上的许多资源中学习,例如 AndrewNg 的 deeplearning.ai。
所以这就是我感到困惑的地方。
OutputSize = InputSize - Filter + 1
如果我InputSize
是11 x 11 x 16
并且我使用max pool
with filter size 2
。通过数学计算,我的形状应该是5.5 x 5.5 x 16
.
这个浮点值(5.5)
是四舍五入还是5
在你喂它的时候被取走?
machine-learning - 池化与随时间的池化
我从概念上理解最大/总和池中发生的事情作为 CNN 层操作,但我看到这个术语“随时间变化的最大池”或“随时间变化的总和池”(例如,“用于句子分类的卷积神经网络” Yoon Kim 的论文)。有什么区别?