1

我保存了一些具有丢失层的模型。不幸的是,dropout_keep_dim值没有作为占位符给出。现在,当我出于测试目的恢复模型时,它会为每次运行提供随机输出。所以,我的问题是,是否可以更改已保存变量的dropout_keep_dim ?dropout层的添加方式如下:

tf.nn.dropout(layer_no, dropout_keep_dim)

我已经在谷歌上浪费了几个小时,但没有找到任何可行的解决方案。是否有解决方案或者我保存的模型现在没有用了?Tf.assign 不起作用,就我而言, dropout_keep_dim 不是变量。任何形式的帮助表示赞赏。

注意。我可以恢复dropout_keep_dim值并打印它。如果可能的话,我想更改它,然后使用保存的权重进行测试。

4

0 回答 0