我正在尝试使用 tensorflow 编写 CLDNN 的实现,就像这个方案中的那个。我遇到了降维层的问题。
据我了解,它是由几个堆叠的受限玻尔兹曼机 (RBM) 制成的,并且像自动编码器一样工作。该层的解码器部分只是在这里训练编码器以减少井尺寸。这意味着您要将编码器的输出“插入”到下一层的输入中。
我可以定义一个训练自动编码器的损失函数(通过比较来自解码输出的输入),以及另一个训练整个图的损失函数。我有办法训练这两个损失函数吗?或者我可能误解了这里的问题,但我觉得自动编码器的解码器部分有点“在循环之外”并且不会被训练。
我已经找到了这种自动编码器和卷积层等的实现......但我真的不明白如何在网络中“插入”自动编码器(就像在方案中一样)