问题标签 [relu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 如何为CNN实现这个新的激活函数的代码
有relu、leak relu和我自己设计的一种新型relu,但是不知道怎么实现。我希望你能帮帮我!
neural-network - 所有 ReLu 是否都在将所有负值更改为 0?
我刚刚花了一个小时阅读了一篇关于 Rectified Linear Units (ReLu) 的论文。我发现很难解开所涉及的数学。
基本上只是说,在您进行抽搐和池化之后,您将任何负值更改为 0?
是这样吗?
python - 为什么在 LSTM 中添加 relu 激活后会得到 Nan?
我有一个简单的 LSTM 网络,大致如下所示:
我的问题是。当我不使用激活 (activation=None) 或使用 tanh 时,一切正常,但是当我切换 relu 时,我不断收到“训练期间的 NaN 损失”,这是为什么呢?它是 100% 可重现的。
opencv - cv2.dnn.readNetFromDarknet 错误:(-212:解析错误)不支持的激活:relu in function 'cv::dnn::darknet::ReadDarknetFromCfgStream'
我尝试使用从这个地方下载的权重和 cfg 在暗网上运行 Openpose:https ://github.com/lincolnhard/openpose-darknet
这是我尝试在 Opencv 中创建网络时出现的错误
() 中的错误 Traceback (最近一次调用最后一次) ----> 1 darknet = cv2.dnn.readNetFromDarknet(modelConfiguration, modelWeights)
错误:OpenCV(4.0.0) C:\projects\opencv-python\opencv\modules\dnn\src\darknet\darknet_io.cpp:552:错误:(-212:解析错误)不支持的激活:relu in function 'cv ::dnn::darknet::ReadDarknetFromCfgStream'
python-3.x - 我的卷积网络损失没有改变,并且在整个训练过程中保持停滞。如何解决这个问题?
我正在尝试训练卷积网络,但无论我做什么,损失都会改变。我想知道我哪里出错了,也很感谢任何友好的建议,因为这是我第一次处理如此大的数据。
我尝试了优化器(adam、SGD、adamdelta...)、损失函数(平方平均误差、二进制交叉熵...)和激活(Relu、elu、selu ....)的许多组合,但问题仍然存在持续存在。
我的项目性质:这是我在模拟中训练一辆简单的自动驾驶汽车的尝试。
训练数据:训练数据被分成大约 4000 个 .h5 文件。每个文件正好有 200 张图像,每个图像都有各自的数据,例如速度、加速度等。
由于数据的性质,我决定以 200 个小批量进行训练并循环浏览所有文件。
结果:
最后,如果您对我的项目有任何建议,我将不胜感激。</p>
tensorflow - 为什么 tf.nn.relu 和 tf.nn.sigmoid 在这个自定义估计器中的工作方式相同
这是在 TensorFlow 中制作自定义估算器的指南: https ://www.tensorflow.org/guide/custom_estimators
隐藏层使用tf.nn.relu
:
我稍微改变了这个例子来学习XOR, withhidden_units=[4]
和n_classes=2
。当激活函数更改为tf.nn.sigmoid
时,示例照常工作。为什么会这样?它是否仍然给出正确的结果,因为 XOR 输入只是零和一?
这两个函数都给出了平滑的损失曲线收敛到零线。
deep-learning - Leaky-ReLU 的缺点是什么?
我们使用 ReLu 代替 Sigmoid 激活函数,因为它没有像 sigmoid 一样的激活函数中存在的梯度消失和爆炸问题,
Leaky-ReLU 是 Rely 的改进之一。每个人都在谈论 Leaky-ReLU 的优势。但是 Leaky-ReLU 的缺点是什么?
python - dx=(x>0)*dout x>0 在这段代码中有什么作用?
有关于 Relu 反向传播的 python 代码。和代码是一样dx=(x>0)*dout
的,x>0
part 是做什么的?谁能解释一下这行代码?
r - 使用“neuralnet”包为不同层设置不同的激活函数
Ciao,我正在研究 R 中的神经网络。我曾经在 python 中使用 Keras 编写这种东西,所以我希望能够为不同的层设置不同的激活函数。
让我解释。假设我想构建一个具有 2 个隐藏层(比如 5 个和 4 个神经元)和一个介于 -1 和 1 之间的输出的神经网络。
我想在隐藏层设置RELU或softplus ,在输出层设置tanh。
这里的问题是神经网络包允许我通过参数act.fun只选择一个激活函数:
我尝试将 act.fun 参数设置为c(softplus, softplus, tanh)但当然我得到一个错误,因为神经网络函数只需要一个函数用于该参数。
你知道我如何以这种方式设置神经网络吗?在互联网上,我只能找到用这个包构建的非常基本的线性神经网络。如果不可能,这意味着这个包几乎没有用,因为它只能构建“线性模型”(??!)
非常感谢,曹
python - 使用 lambda 的 relu 激活函数
嗨,我想在 python 中实现一个 lambda 函数,如果 x> 1 和 0 否则返回 x (relu):
所以我有 喜欢:
需要注意的是,我想将 lambda 的值传递给函数
但它失败了......