0

我在 python3 中使用 Tensorflow keras 库进行未知文本大小的文本摘要。

我正在使用此链接中的代码说明进行文本摘要。但看起来代码为要汇总的输入文本的最大大小设置了值,因为它已经知道要汇总的文本大小。但如果我不知道怎么办?我的意思是,如果我必须对许多我不知道它们总大小的文本进行摘要?

错误文本太长,所以我没有成功找到与我的案例相关的内容。

所以错误是:

indices[0,0] = 30 不在 [0, 13) [[node model_2/embedding_1/embedding_lookup (定义在 C:\Users\f_pc\Desktop\class_python.py:314)]] [Op:__inference_predict_function_19765]

错误可能源于输入操作。连接到节点 model_2/embedding_1/embedding_lookup 的输入源操作:model_2/embedding_1/embedding_lookup/19252(定义在 D:\obj\windows-release\37amd64_Release\msi_python\zip_amd64\contextlib.py:112)

函数调用栈:predict_function

我也在尝试

max_text_len=800
max_summary_len=500

但是加起来这个大小,分析时间增加了,但也有

4

1 回答 1

1
encoder_inputs = Input(shape=(max_len_text,)) 

所以你必须设置max_len_text.

据我所见(Bahdanau et al., 2015),注意力层的输入长度没有限制。剩下的只是收集 LSTM 中间状态,它也不应该依赖于输入长度。

您是否尝试过max_len_text在推理期间设置与模型构建期间不同的设置?(为每个推论动态设置它,即为您正在总结的每个输入文本)

于 2021-07-28T11:51:17.707 回答