对我自己的数据集执行训练时会出现此问题,该数据集已通过 data_convert_example.py 转换为二进制。经过一周的培训后,我得到了在比较解码和参考文件时没有意义的解码结果。
如果有人成功并使用他们自己的数据获得了与 Textsum 自述文件中发布的结果相似的结果,我很想知道什么对您有用……环境、tf 构建、文章数量。
我目前在 0.11 上没有运气,但在 0.9 上得到了一些结果,但是解码结果类似于下面显示的结果,我什至不知道它们来自哪里。
我目前正在运行 Ubuntu 16.04、TF 0.9、CUDA 7.5 和 CuDnn 4。我尝试了 TF 0.11 但正在处理其他问题,所以我回到了 0.9。似乎解码结果是从有效文章中生成的,但参考文件和解码文件索引没有相关性。
如果有人可以提供任何帮助或指导,将不胜感激。否则,我应该弄清楚什么,我会在这里发布。
最后几个问题。关于引用的词汇文件。它是否完全需要按词频排序?在生成它时,我从未按照这些方式执行任何操作,只是不确定这是否也会引发一些问题。
最后,我在生成数据时假设训练数据文章应该被分解成更小的批次。我将文章分成多个文件,每个文件有 100 篇文章。然后将它们命名为 data-0、data-1 等。我认为这是我的正确假设?我还将所有词汇保存在一个似乎没有引发任何错误的文件中。
上述假设是否也正确?
下面是一些你可以看到的 ref 和 decode 结果很奇怪,似乎没有相关性。
解码:
output=Wild Boy Goes About How I Can't Be Really Go For Love
output=State Department defends the campaign of Iran
output=John Deere sails profit - Business Insider
output=to roll for the Perseid meteor shower
output=Man in New York City in Germany
参考:
output=Battle Chasers: Nightwar Combines Joe Mad's Stellar Art With Solid RPG Gameplay
output=Obama Meets a Goal That Could Literally Destroy America
output=WOW! 10 stunning photos of presidents daughter Zahra Buhari
output=Koko the gorilla jams out on bass with Flea from Red Hot Chili Peppers
output=Brenham police officer refused service at McDonald's