每当我看到在 Torch 中实现的神经网络,nn 时,它们只是将模块连接在一起。例如,有一个带有 LookupTable、Splittable、FasLSTM、Linear、LogSoftMax 的音序器模块。为什么人们不使用介于两者之间的激活函数,例如 tanh/Sigmoid/ReLu?
问问题
78 次
每当我看到在 Torch 中实现的神经网络,nn 时,它们只是将模块连接在一起。例如,有一个带有 LookupTable、Splittable、FasLSTM、Linear、LogSoftMax 的音序器模块。为什么人们不使用介于两者之间的激活函数,例如 tanh/Sigmoid/ReLu?