1

说我有以下神经网络

net = Chain(Dense(3,5,\sigma), Dense(5,2, ???))

我想知道放什么,而不是???让我的第一个输出神经元通过 RELU 激活函数,第二个通过 sigmoid 函数。该网络的输出是一对要执行的动作,第一个是正实值,另一个是二元选择。

我无法定义一个自定义的“relu_sigma”函数来做出选择,因为它的工作方式是激活函数采用单个值,而不是数组。所以我不能制作一个知道它是把第一个还是第二个Wx+b作为参数的函数。

更一般地说,我想知道如何在任意数量的神经元(例如 5 个 relu、2 个 sigmoid 和最后 4 个上的 softmax)上使用任意数量的函数来制作这种网络

4

1 回答 1

2

我定义了一个自定义图层类型如下。它不是一般的,它只对前半部分神经元应用relu,对后半部分应用sigma。但这就是我想要的应用程序,概括不应该太复杂而无法弄清楚。

struct reluSigma
    W
    b
end
reluSigma(in::Integer, out::Integer) =  reluSigma(param(randn(out, in)), param(randn(out)))

function (m::reluSigma)(x)
    l = Int(length(m.b)/2)
    r1 = 1:l
    r2 = l+1:length(m.b)
    vcat(relu(m.W[r1,:] * x .+ m.b[r1,:]), σ(m.W[r2,:] * x .+ m.b[r2,:]))
end

于 2019-04-16T15:03:39.473 回答