问题标签 [feed-forward]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
matlab - 为什么我的带有径向神经元的神经网络不训练?
各位晚安,
我想使用 matlab 中的神经网络在下面的超链接中拟合图像的曲线 (y=exp(-(x-30).^2))。为此,我想使用带有径向基神经元的前馈网络。
我写了一个代码,但它不起作用,我不明白为什么。
我正在使用反向传播来训练神经网络。我使用了一个隐藏层和一个神经元,其传递函数等于 radbas,dist 权重函数如何。输出层有一个神经元,其传递函数等于纯线,权重函数为 dotprod。当我使用 dotprod 时,隐藏层中神经元输入的权重函数如何正确训练网络。(图2)
但我需要使用“dist”,当我使用 dist 权重函数时,神经网络不会学习(图 3)。如果您输入“help nnweight”,您将看到“dist”是可能的权重函数之一。我无法理解为什么它不起作用。
有人可以请帮助我吗?太感谢了。
tensorflow - Tensorflow 收敛到均值
我正在尝试使用 tensorflow 预测二进制输出。训练数据有大约 69% 的输出为零。输入特征是实数值的,我通过减去均值并除以标准差来对它们进行归一化。每次我运行网络时,无论我尝试了何种技术,我都无法获得 >69% 的准确率,而且看起来我的 Yhat 正在收敛到全零。
我已经尝试了很多东西,比如不同的优化器、损失函数、批量大小等。但无论我做什么,它都会收敛到 69% 并且永远不会超过。我猜我正在做的事情有一个更根本的问题,但我似乎找不到。
这是我的代码的最新版本
matlab - 来自 Hinton 论文代码的 RBM 预训练权重,用于 MATLAB 原生前馈网络工具箱的权重
我想使用来自 Hinton 论文代码的 RBM 预训练权重作为 MATLAB 原生前馈网络工具箱的权重。任何人都可以帮助我如何设置或安排前馈网络的预训练权重?
例如,我使用了来自http://www.cs.toronto.edu/~hinton/MatlabForSciencePaper.html的 Hinton 代码
并将预训练的权重用于 matlab 前馈网络。
如何设置或安排 W 使其匹配前馈网络结构?我知道如何使用单个向量,但我担心顺序或权重顺序不正确。
neural-network - 建立具有 150k 训练样本的反向传播网络
我正在尝试建立一个反向传播神经网络来对 15 万个贷款账户进行分类。每个账户都有关于年龄、平均收入和发放贷款日期的数据。我还必须确定他们在哪里支付了 1(已支付)、-1(未支付)。我想知道设置网络架构的最佳方法是什么,以便它可以正确训练和分类我拥有的数据。
现在的输入是基于我拥有的数据的 10 个值(1 或 -1)的数组。每层中有多少隐藏层和神经元将最好地处理这些数据?
任何可以帮助或引导我朝着正确方向前进的事情都将不胜感激。
python - 张量流中的单神经元前馈网络
我做了一个前馈单神经元网络。预测打印 0.5,而它应该打印 0.0。我对张量流很陌生。请帮我。这是我的代码:
我也只使用 numpy 手动制作了这个模型,效果很好。
编辑:我尝试了所有类型的成本函数,包括 tf.reduce_mean(predict-labels)**2)
keras - Keras LSTM 状态与滑动窗口的前馈网络
在 Keras 的 LSTM 实现中的默认模式 (stateful = False) 中,一批中的所有样本都是独立的,并且状态不会从一个样本传播到下一个样本。据我了解,输入序列长度(L)是让 LSTM 保持状态的唯一方法。但这将状态传播限制在固定数量的时间步,即L。从理论上讲,与具有固定大小滑动输入窗口的前馈 NN 相比,这种操作模式有什么优势。这样NN的每个输入都是L个连续输入值的向量。
从理论上讲,LSTM 应该能够学习跨越甚至 1000 个时间步长的长期依赖关系。但这不要求我有L = 1000,因为没有办法捕获比输入序列长度更长的依赖关系?我知道可以通过格式化输入数据来使用有状态模式,以便每批次的i个样本是相关的。我很难理解默认 LSTM 模式相对于输入数据上具有滑动窗口的前馈 NN 有什么优势?
matlab - MATLAB 中神经网络的自定义权重和训练
考虑这个神经网络:
该神经网络中连接上的数字显示了每个节点(神经元)上的连接权重和数字是硬边界传递函数的阈值。
现在这是我的两个问题:
首先:为了实现这个神经网络,我使用了下面的代码,但我无法指定连接权重。我该如何指定它们?
第二: (x1,x2)
是输入点的坐标,这个神经网络指定这个点是否属于s1
或s2
。例如:
现在我应该如何为这种输入和目标训练这个神经网络?
(我使用 MATLAB R2014a,对 MATLAB 神经网络有点新,所以请多多关照)
任何建议都会有很大帮助。提前致谢。
r - 神经网络收敛到最小值,但仅在提供所有训练数据时才有效
我是神经网络的新手,我编写了以下前馈神经网络代码来执行 3 位二进制计数器。我在代码输出中发现的是,当我在使用任何一个 3 位输入进行训练后尝试预测时,它几乎总是预测下一个状态错误,但是当我将 cntr_inp(包含所有输入的矩阵)作为输入传递时,它预测下一个对应状态的状态权。我不知道发生了什么,现在卡了一段时间。如果有人能找出我正在做的错误,我会有所帮助。
谢谢。
python - 如何提高神经网络的准确性
我正在尝试构建一个简单的神经网络来将产品图像分类为不同的标签(产品类型)。即,给定一个新的产品图像,告诉它属于哪个产品类别类型(书籍、玩具、电子产品等)。
我在每个产品编号下都有几个产品图像,每个产品编号在 Excel 表中都有一个标签(即产品类型)。
下面是我的代码:
神经网络是一个 3-2-3-51 前馈神经网络。第 0 层包含 3 个输入。第 1 层和第 2 层是包含 2 和 3 个节点的隐藏层。第 3 层是具有 51 个节点的输出层(即,用于 51 个产品类别类型)。但是,这样我得到的准确率非常低,只有大约 45-50%。
我做错了什么吗?如何提高神经网络的准确性?我在某处读到它可以通过“ crossvalidation and hyperparameter tuning
”完成,但它是如何完成的?对不起,我对神经网络很陌生,只是尝试一些新的东西。谢谢。
machine-learning - 基于神经网络前馈反向传播的学习不适用于 AND 表
我的神经网络能够了解样本是 OR 表还是 XOR 表。但是,如果我想让它学习 AND 表,它会拒绝。
神经网络配置:
1 个输入层,2 个输入神经元
1 个隐藏层,3 个神经元
1 个输出层和 1 个结果神经元。
总共 9 个权重,6 个分配在输入和隐藏之间,3 个分配在隐藏和输出之间。
使用 sigmoid 作为激活函数。
使用 OR 或 XOR,值往往会接近正确的值,如下所示:
或者
0 0 - 0.0232535024 // ~0
0 1 - 0.9882075648 // ~1
1 0 - 0.9881840412 // ~1
1 1 - 0.9932447649 // ~1
异或
0 0 - 0.0419020172 // ~0
0 1 - 0.9742653893 // ~1
1 0 - 0.9742622526 // ~1
1 1 - 0.0096044003 // ~0
但是当我尝试对它进行 AND 训练时,前 3 行趋向于接近 0,但最后一行 (1,1) 趋向于接近 0.5,而不是超过 0.5。
和
0 0 - 0.0007202012 // ~0
0 1 - 0.0151875796 // ~0
1 0 - 0.0128653577 // ~0
1 1 - 0.4987960208 // 事件未关闭,趋于接近 0.5,1 的一半
如果需要代码,请告诉我我会发布它。我想知道我的方法是否正确。
我可以对所有情况应用相同的激活函数吗?为什么它接近 1 的一半 0.5?我从概念上理解这一点有什么问题吗?
我关注了 https://stevenmiller888.github.io/mind-how-to-build-a-neural-network/ 和其他一些人来了解 NN 以及如何实现它。使用 Java
下面是我的课:
这是一个更新,如果我随机更改 9 个权重,它似乎工作正常