问题标签 [rnn]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Keras LSTM 输入形状错误
我正在尝试在 Keras 中创建简单的 RNN,它将学习这个数据集:
其中 1 表示增加一个指标,-1 表示减少,0 表示指标没有变化。每个数组有 83 个项目,用于 83 个指标,每个数组的输出(标签)是一个分类数组,显示这些指标对单个指标的影响:
我在下面的代码中使用了Keras
和:LSTM
行的输出print x_train.shape
是(1618, 83)
,当我运行我的代码时,我得到这个错误:
我不想使用Embedding
并想添加input_shape
到LSTM
图层中。
tensorflow - 模块“tensorflow.contrib.rnn”没有属性“BasicLSTMCell”
当我尝试跑步时
我收到标题中提到的错误。
这是由于 tensorflow 版本造成的吗?如何解决这个问题?
input - 在 Keras 的 RNN 上设置输入
所以我有一个关于在 Keras 中设置输入的具体问题。
我知道序列长度是指您要建模的最长序列的窗口长度,其余序列用 0 填充。
但是,如何设置已经在时间序列数组中的东西?
例如,现在我有一个 550k x 28 的数组。所以有 550k 行,每行有 28 列(27 个特征和 1 个目标)。我是否必须手动将数组拆分为(550k 序列长度)不同的数组并将所有这些数组提供给网络?
假设我希望第一层等于每行的特征数,并查看过去的 50 行,我如何调整输入层的大小?
那只是 input_size = (50,27),我是否必须再次手动拆分数据集,还是 Keras 会自动为我做这件事?
python - 如何使用张量流在给定图像中所有先前像素的情况下预测下一个像素
就像一个项目一样,我想看看是否可以在给定所有先前像素的情况下预测图像中的下一个像素。
例如:假设我有一个x像素的图像。给定前y个像素,我希望能够稍微准确地预测第y+1 个像素。我应该如何解决这个问题。
python - TensorFlow BasicLSTMCell 与 LSTMFusedBlockCell
我是 TensorFlow 的新手。BaiscLSTMCell
基于 TensorFlow 教程,我设法构建了一个使用 LSTM 训练基本模型的图。
但我需要让它更快。我在这里看到了一个比较,由于我没有 Nvidia GPU,这LSTMBlockFusedCell
似乎是最好的选择。我查看了文档,发现__init__()
和__call__()
函数的签名不同。具体来说,我担心cell_clip
参数 in__init()__
和sequence_length
in 调用。更重要的是,inputs
张量是有形的[time_len, batch_size, input_size]
;这与基本单元格([batch_size, time_len, input_size]
)的不同吗?我不想使用窥视孔,所以我将它留给False
(默认)。
有人可以解释一下和之间是否有任何其他差异(除了性能的改进)BasicLSTMCell
以及LSTMBlockFusedCell
如何正确设置上述参数以达到与原始相同的结果?
python - AttributeError:“LSTMStateTuple”对象在使用 Tensorflow 构建 Seq2Seq 模型时没有属性“get_shape”
我正在尝试使用 Amazon 评论数据集进行文本摘要。我在构建模型时遇到了错误。
我知道我错过了一些东西。但无法弄清楚它是什么。我是张量流的新手。
我想问题出在我的编码层上,我试图连接输出的方式。
编辑:
删除了笔记本的链接,因为它将来会改变。为错误添加堆栈跟踪。
python - ValueError:尺寸必须相等,但为 512 和 256
我正在尝试使用 Tensorflow 1.3.0 实现用于文本摘要的 seq2seq 模型。
我正在尝试在编码层中使用MultiRNNCell
和。bidirectional_dynamic_rnn
我错过了一些东西,但无法找到它。错误堆栈跟踪不是直截了当的,这使得它更难理解。
我在构建图表时遇到错误。
我无法理解错误。它试图引用哪个矩阵?请帮助我,我对 Tensorflow 还很陌生。
python - 将 tf.nn.dynamic_rnn 移动到 GPU 时出现奇怪的错误
我正在使用以下设置:Fedora 26、NVIDIA GTX 970、CUDA 8.0、CUDNN 6.0 和 python 上的 tensorflow-gpu==1.3.0
我的问题是,当使用以下命令强制 dynamic_rnn 运算符在我的 gpu 上运行时:
调用全局变量初始化程序时收到以下错误:
InvalidArgumentError:节点“init/NoOp”:未知输入节点“^drawlog_vae_test.DrawlogVaeTest.queue_training/encoder/encoder/encoder_W_mean/Variable/Assign”
该变量是使用以下语句创建的:
和
奇怪的是,这个变量几乎与两个 rnns 无关。有没有机会在 GPU 上运行我的 rnn?或者这只是一个奇怪的错误告诉我我不能在 GPU 上运行 rnn?