建议我们在学习回归时在神经网络的最后一层使用 ReLu。这对我来说很有意义,因为 ReLu 的输出并不局限于 0 和 1 之间。
但是,当 x < 0(即 ReLu 输出为零时)时,它的表现如何。y(回归的结果)还能小于 0 吗?
我相信,我在这里缺少一个基本的数学概念。任何帮助表示赞赏。
建议我们在学习回归时在神经网络的最后一层使用 ReLu。这对我来说很有意义,因为 ReLu 的输出并不局限于 0 和 1 之间。
但是,当 x < 0(即 ReLu 输出为零时)时,它的表现如何。y(回归的结果)还能小于 0 吗?
我相信,我在这里缺少一个基本的数学概念。任何帮助表示赞赏。