问题标签 [textsum]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
387 浏览

tensorflow - textsum 训练大约需要多长时间才能将平均损失降至可观的价值

我正在努力让 textsum 实现工作,最近得到了我自己的抓取数据。我昨晚开始针对 38000 篇文章进行培训。今天早上当我查看平均损失时,我在 5.2000000 左右。例如,当我玩 textsum 玩具套装时,我能够快速降低到 0.0000054 左右,但这仅针对 20 篇文章。

我希望有更多经验的人能给我一些关于培训需要多长时间的期望。我目前在 Nvidia 980M 上运行它。上周我确实想试用 AWS g2.2xlarge 实例,但具有讽刺意味的是,我的本地机器处理事情的速度似乎比 Grid 520 快。我仍然想测试 P2 实例和谷歌云,但现在我想我只打算使用我的本地机器。

关于我应该期待什么,任何人都可以在这里提供任何信息?谢谢!

0 投票
1 回答
328 浏览

tensorflow - Textsum - 与参考文件相比,解码结果不正确

对我自己的数据集执行训练时会出现此问题,该数据集已通过 data_convert_example.py 转换为二进制。经过一周的培训后,我得到了在比较解码和参考文件时没有意义的解码结果。

如果有人成功并使用他们自己的数据获得了与 Textsum 自述文件中发布的结果相似的结果,我很想知道什么对您有用……环境、tf 构建、文章数量。

我目前在 0.11 上没有运气,但在 0.9 上得到了一些结果,但是解码结果类似于下面显示的结果,我什至不知道它们来自哪里。

我目前正在运行 Ubuntu 16.04、TF 0.9、CUDA 7.5 和 CuDnn 4。我尝试了 TF 0.11 但正在处理其他问题,所以我回到了 0.9。似乎解码结果是从有效文章中生成的,但参考文件和解码文件索引没有相关性。

如果有人可以提供任何帮助或指导,将不胜感激。否则,我应该弄清楚什么,我会在这里发布。

最后几个问题。关于引用的词汇文件。它是否完全需要按词频排序?在生成它时,我从未按照这些方式执行任何操作,只是不确定这是否也会引发一些问题。

最后,我在生成数据时假设训练数据文章应该被分解成更小的批次。我将文章分成多个文件,每个文件有 100 篇文章。然后将它们命名为 data-0、data-1 等。我认为这是我的正确假设?我还将所有词汇保存在一个似乎没有引发任何错误的文件中。

上述假设是否也正确?

下面是一些你可以看到的 ref 和 decode 结果很奇怪,似乎没有相关性。

解码:

参考:

0 投票
0 回答
475 浏览

tensorflow - 如何为 TensorFlow 服务设置 Textsum

我正在尝试使用 tensorflow 服务设置 textsum 的解码功能,但我无法完全理解通过 MNIST 教程执行的完全必要的操作。有没有人遇到过关于设置 Tensorflow 服务模型甚至更符合 textsum 的其他教程?任何帮助或方向都会很棒。谢谢!

最后,我试图从通过 seq2seq_attention.py 中的“train”训练的模型导出解码功能:https ://github.com/tensorflow/models/blob/master/textsum/seq2seq_attention.py

在比较以下 2 个文件以了解我需要对上述 textsum 模型执行的操作时,我很难理解需要在“default_graph_signature、输入张量、classes_tensor 等”中分配什么我意识到这些可能与 textsum 模型不一致,但这是我想要澄清的,如果我看到一些其他模型被导出到 tensorflow 服务,它可能会更有意义。

Comapred: https ://github.com/tensorflow/tensorflow/blob/r0.11/tensorflow/examples/tutorials/mnist/mnist_softmax.py

https://github.com/tensorflow/serving/blob/master/tensorflow_serving/example/mnist_export.py

- - - - - - - - - 编辑 - - - - - - - - - -

以下是我到目前为止的内容,但我遇到了一些问题。我正在尝试设置 Textsum Eval 服务功能。首先,当分配 Saver(sharded=True) 时,我收到一条错误消息,指出“没有要保存的变量”。除此之外,我也不明白我应该为“classification_signature”和“named_graph_signature”变量分配什么,以便通过 textsum 解码导出结果。

关于我在这里缺少的任何帮助......确定它有点。

0 投票
1 回答
164 浏览

machine-learning - 如何检测 textsum 训练是否过拟合?

我正在使用 Tensorflow 0.9 并使用 Textsum 模型进行训练。我收集了大约 130 万篇文章,并且已经针对它们进行了大约一周的训练。平均损失约为 1.75 - 2.1。我决定停止并运行 eval,因为我的理解是我的平均损失应该接近我在训练中得到的损失。当我运行评估时,我看到平均损失为 2.6 到 2.9。我只是想知道在执行此运行时应该看到什么。

我是否正确使用了这种培训/评估分析?我对深度学习有些陌生,并试图将其用作学习的一种方式,并通过其他一些阅读,似乎这两者之间的差距可能有点大。

是否有针对不同数据集进行评估的标准容差以及平均损失的差异应该是多少?在这一点上,我不确定我是应该继续训练还是暂时停在这里,并尝试弄清楚如何让它在 tensorflow 服务中运行。我不想过度拟合模型,但从学术角度来看,假设我通过训练进行了过度拟合。我需要做什么来“修复”它?您现在是只是简单地获取更多文章并输入该数据作为训练,还是模型本质上已损坏且无法使用?

0 投票
1 回答
271 浏览

tensorflow - 哪个文件用于 TEXTSUM 中的评估步骤?

我正在研究 tensorflow 的 texsum 模型,它是文本摘要。我正在遵循github/textsum自述文件中指定的命令。它说数据文件夹中存在的名为验证的文件将在评估步骤中使用,但数据文件夹中没有验证文件。

我想自己做一个,后来意识到它应该是一个二进制文件。所以我需要准备一个文本文件,它将被转换为二进制文件。但是该文本文件必须具有特定的格式。会和train step中使用的文件一样吗?我可以对训练步骤和评估步骤使用相同的文件吗?我遵循的步骤顺序是:

第 1 步:使用提到的玩具数据集“更新”的词汇文件训练模型

第 2 步:训练持续了一段时间,在 running_avg_loss: 3.590769 处“被杀死”

第 3 步:使用与训练相同的数据和词汇文件进行 eval 步骤,我运行了 eval。它继续运行,running_avg_loss 在 6 到 7 之间

如果要使用相同的文件,我对第 3 步表示怀疑。

0 投票
1 回答
148 浏览

textsum - Textsum 模型 - 解码结果错误

有没有人测试 textsum 代码以获得完美的结果?

前两天看到xtr33me发的消息“#Textsum# - Incorrect decode results compatible with ref file”,我现在测试的情况也是这样,我用中文语料,训练到running_avg_loss = 0.00001,但是我解码了结果不对,是什么原因?

如果有人可以提供任何帮助或指导,将不胜感激。

decode1480036683.txt

ref1480036683.txt

0 投票
1 回答
1779 浏览

tensorflow - Tensorflow Serving - 没有可服务的版本在基本路径下找到

我目前正在尝试使用 tensorflow 服务来服务于训练有素的“ textsum ”模型。我正在使用TF 0.11,经过一番阅读,它似乎会自动调用 export_meta_graph 来创建导出的文件ckptckpt.meta文件。

在 textsum/log_root 目录下,我有多个文件。一个是model.ckpt-230381,另一个是model.ckpt-230381.meta

因此,据我了解,这是我在尝试设置服务模型时应该能够指出的位置。我已发出以下命令:

运行上述命令后,我收到以下消息:

W tensorflow_serving/sources/storage_path/file_system_storage_path_source.cc:204] 在基本路径 tf_models/textsum/log_root/ 下找不到可服务模型的版本

在检查点文件上运行 inspect_checkpoint 后,我​​看到:

我是否误解了出口需要发生的事情?关于为什么找不到模型的任何想法?

0 投票
1 回答
356 浏览

python - Textsum(tensorflow):使用从数据集生成的词汇文件时出现断言错误

我在 CNN 数据上运行时遇到了小问题。使用上面的代码生成的词汇文件给出了断言错误。我无法理解是什么导致了这个问题。

这是我得到的错误:

seq2seq_attention.py 中的函数:

def main(unused_argv): vocab = data.Vocab(FLAGS.vocab_path, 10000000) 检查是否存在所需的特殊标记。断言 vocab.CheckVocab(data.PAD_TOKEN) > 0 断言 vocab.CheckVocab(data.UNKNOWN_TOKEN) >= 0 断言 vocab.CheckVocab(data.SENTENCE_START) > 0 断言 vocab.CheckVocab(data.SENTENCE_END) > 0 –</p>

0 投票
0 回答
108 浏览

tensorflow - 重新训练模型时的Tensorflow -Textsum错误

每当我重新训练 textsum 模型时,都会出现以下错误:

InvalidArgumentError:Assign 需要两个张量的形状才能匹配。

lhs shape= [35313] rhs shape= [35314]" 存在。

我使用与 Github 上提供的相同的命令行进行培训。我已将要使用的 GPU 数量设置为 1。我必须训练已经训练过的模型,因为我有一个大型数据集,由于时间限制无法一次训练。该模型在第一次训练时制作了许多检查点文件。

0 投票
1 回答
116 浏览

tensorflow - 解释 textsum 解码文件(输出多于输入?)

我在一个小型测试集(5 个示例)上运行 textsum 解码,但是参考和解码文件都已经有数千行了。解码似乎无限期运行是否有原因?它是否重复处理同一组示例?以后的输出应该比以前的更好吗?

希望对此有一些直觉;我一直找不到明确的解释。