问题标签 [encoder-decoder]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
29 浏览

tensorflow - 当我将填充设置为 1 时,ZeroPadding2D 填充两次

我刚刚开始使用 Python 3.7.7 学习 Tensorflow (2.1.0)、Keras (2.3.7)。

我正在尝试使用 VGG16 的编码器-解码器网络。

我需要对图层进行上采样(12, 12, ...),以(25, 25, ...)使其conv7_1具有与图层相同的形状conv4_3。有“问题”的层是upsp2

我试过这个:

但我得到那个形状(12, 12, ...)进入(14, 14, ...)zero1

我怎样才能上采样(12,12,512)(25,25,512)

0 投票
1 回答
338 浏览

java - 如何在 windows 下将 Ffmpeg 扩展嵌入到 Exoplayer 中?

由于某些原因,我必须在 Windows 10 操作系统下使用 Android-Studio 作为 IDE。我的问题是,exoplayer 使用 Android-TV 设备的软硬件解码器来解码视频流。显然,大多数 Android-TV 设备没有内置解码器来解码 mpeg-2 声音,因此 mpeg-2 流的声音是静音的,但 mpeg-2 视频播放良好。为了解决这样的问题,我相信我必须在 exoplayer 中嵌入 Ffmpeg 扩展。为此,我按照建议在 Windows PowerShell 下按照此处的说明进行操作,但存在一些问题。

第一:使用 PowerShell 时,Windows 的 HOST_PLATFORM 变量的值应该是多少?第二:由于未知原因,我在执行 Shell 脚本“build_ffmpeg.sh”时收到以下消息。

执行 shell 脚本时收到的内容

现在,我如何为 exoplayer 嵌入 ffmpeg 扩展(在 windows 10 操作系统下),启用它来解码并解决这些问题?我的编程语言是java。谢谢。

注意:如果您有任何其他(除了将 Ffmpeg 嵌入到 exoplayer 中)建议来解决我的问题,请告诉我。

0 投票
1 回答
60 浏览

python - 使用注意力机制实现编码器和解码器架构

我想从头开始实现带有注意力机制的编码器-解码器。任何人都可以帮我写代码吗?

0 投票
1 回答
553 浏览

tensorflow - 用于时间序列预测的编码器解码器

我想从 55 天的训练规模预测 7 天。我尝试应用此处此处给出的模型,但我将所有 7 天的输出值都设为 1。

我也对如何将时间序列作为编码器解码器的输入及其代码感到困惑,我根据自己的理解进行了尝试。

训练后,我从整个火车序列中预测 7 天。

第二我从链接2尝试

这也给出了 1 的输出。我不知道 x2 应该是什么。

请纠正我哪里错了。

0 投票
1 回答
1331 浏览

huggingface-transformers - 如何使用拥抱面部转换器为翻译任务训练编码器-解码器模型?

我想为翻译任务训练如下配置的编码器解码器模型。有人可以指导我如何为这样的模型设置训练管道吗?任何链接或代码片段将不胜感激。

0 投票
1 回答
343 浏览

tensorflow - NaN 损失和从一开始就为 0 的准确度:编码器解码器模型 Keras

我使用 Keras 框架制作了一个编码器解码器模型,用于制作聊天机器人。我找不到我的模型有任何问题,仍然在训练 LOSS 从第一个时期本身开始是 nan ,并且准确度保持为零。

我已经尝试了不同批次大小、不同学习率、不同优化器的代码,但输出值甚至没有丝毫变化。我什至尝试了梯度裁剪和正则化,但仍然没有任何改进的迹象。模型给出的输出是完全随机的。

代码占用形状的输入:

(BATCH, MAX_LENGTH) 用于编码器输入 -> 通过嵌入层转换为 (BATCH, MAX_LENGTH, EMB_SIZE)

(BATCH, MAX_LENGTH) 用于解码器输入 -> 通过嵌入层转换为 (BATCH, MAX_LENGTH, EMB_SIZE)

输出形状为:

(BATCH, MAX_LENGTH, 1) 用于解码器目标(因此我使用的损失是'sparse_categorical_crossentropy')

这是我的模型的代码:

词嵌入 (embedding_matrix) 是使用 GloVe 嵌入开发的。

训练结果就是这样出来的……

纪元 1/100 1329/1329 [===============================] - 1s 868us/step - loss: nan - 精度: 4.7655e-04

纪元 2/100 1329/1329 [===============================] - 0s 353us/步 - 损失:nan - 准确度: 4.7655e-04

纪元 3/100 1329/1329 [===============================] - 0s 345us/步 - 损失:nan - 准确度: 4.7655e-04

纪元 4/100 1329/1329 [===============================] - 0s 354us/步 - 损失:nan - 准确度: 4.7655e-04

纪元 5/100 1329/1329 [===============================] - 0s 349us/步 - 损失:nan - 准确度: 4.7655e-04

0 投票
1 回答
568 浏览

python - 应用带注意的编码器-解码器 (Seq2Seq) 推理模型

你好StackOverflow社区!

我正在尝试为带有Attention的seq2seq ( Encoded-Decoded ) 模型创建推理模型。这是推理模型的定义。

当我运行此代码时,出现以下错误。

如果我排除一个注意块,模型将完全没有任何错误。

0 投票
0 回答
181 浏览

python - 将预训练的词嵌入添加到编码器解码器中

我想在我的编码器-解码器中添加一个预训练的词嵌入。下面是我的代码:

我尝试了很多方法,但我就是无法得到它。

0 投票
1 回答
240 浏览

keras - LSTM 训练期间的训练损失高于验证损失

我正在训练 LSTM 来预测时间序列。我尝试了一个编码器 - 解码器,没有任何辍学。我将我的数据分为 70% 的训练和 30% 的验证。训练集和验证集的总点数分别在 107 和 47 左右。然而,验证损失总是大于训练损失。下面是代码。

训练损失大于验证损失。训练损失 = 0.02 和验证损失约为 0.004 请附上图片。我尝试了很多事情,包括辍学和添加更多隐藏单元,但它并没有解决问题。任何意见建议表示赞赏 在此处输入图像描述

0 投票
1 回答
91 浏览

python - 解码后的Encoder-Decoder噪声问题

我有一个大小为 (12960, ) 的数组,我正在使用非常简单的密集自动编码器架构来重现数组,如下所示。

现在我使用 20 epoch 和 64 batch size 来训练模型。

但是当我在解码后绘制数组时,我在很多地方都会得到某种噪声(或 0 值)。我在下面附上了原始和解码的图像。有人可以解释一下为什么会这样。我是深度学习的新手,所以我不太了解它的工作原理。是因为我使用的是非常简单的架构,还是在编码时压缩了很多?

原来的

解码