Find centralized, trusted content and collaborate around the technologies you use most.
Teams
Q&A for work
Connect and share knowledge within a single location that is structured and easy to search.
我坚持使用word2vec模型中的nce_loss激活函数。我想弄清楚它在这里列出的所有这些中使用的激活函数:
这些包括平滑非线性(sigmoid、tanh、elu、softplus 和 softsign)、连续但并非处处可微的函数(relu、relu6、crelu 和 relu_x)和随机正则化(dropout)。
我已经在这个功能和其他地方搜索过它,但没有得到任何想法。我想这是 relu* 系列。请问有什么提示吗?
这些都没有。它使用CrossEntropy。