使用预训练的 ElMo 模型时,我得到的输出字典与已发布的tf.hub 模型中解释的输出字典不同 我的输出字典的签名是
> model = BidirectionalLanguageModel(options_file, weight_file)
> ids_placeholder = tf.placeholder('int32', shape=(None, None, max_word_length))
> ops = model(ids_placeholder)
> print (ops)
{'token_embeddings': <tf.Tensor 'bilm/Reshape_1:0' shape=(?, ?, 512) dtype=float32>,
'lengths': <tf.Tensor 'sub:0' shape=(?,) dtype=int32>,
'mask': <tf.Tensor 'Cast_1:0' shape=(?, ?) dtype=bool>,
'lm_embeddings': <tf.Tensor 'concat_3:0' shape=(?, 3, ?, 1024) dtype=float32>}
而来自的输出字典tf hub
包含:
- word_emb:形状为 [batch_size, max_length, 512] 的基于字符的词表示。
- lstm_outputs1:第一个 LSTM 隐藏状态,形状为 [batch_size, max_length, 1024]
- lstm_outputs2:形状为 [batch_size, max_length, 1024] 的第二个 LSTM 隐藏状态。
- elmo:3 层的加权和,其中权重是可训练的。这个张量的形状为 [batch_size, max_length, 1024]
- 默认值:具有形状 [batch_size, 1024] 的所有上下文化单词表示的固定均值池。
如何访问word_emb, lstm_outputs1, lstm_outputs2 ..
输出字典中的字段?我正在按照使用示例从这个链接缓存数据集