问题标签 [feed-forward]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
neural-network - 输入层是否应该包含偏置神经元?
我想知道:在多层前馈神经网络中,输入层是否应该包含偏置神经元,或者这仅在隐藏层中有用?如果是这样,为什么?
artificial-intelligence - 训练 OCR 的前馈神经网络
目前我正在学习神经网络,我正在尝试创建一个可以被训练来识别手写字符的应用程序。对于这个问题,我使用了前馈神经网络,当我训练它识别 1、2 或 3 个不同的字符时,它似乎可以工作。但是当我试图让网络学习超过 3 个字符时,它会停滞在 40 - 60% 左右的错误百分比上。
我尝试了多层和更少/更多的神经元,但我似乎无法做到这一点,现在我想知道前馈神经网络是否能够识别那么多信息。
一些统计数据:
网络类型:前馈神经网络
输入神经元: 100(一个10 * 10)的网格用于绘制字符
输出神经元:要重新识别的字符数量
有谁知道我的架构中可能存在的缺陷是什么?输入神经元是否过多?前馈神经网络不能进行字符识别吗?
java - 在 Java 中实现神经网络:训练和反向传播问题
我正在尝试用 Java 实现前馈神经网络。我创建了三个类 NNeuron、NLayer 和 NNetwork。“简单”的计算似乎很好(我得到了正确的总和/激活/输出),但是在训练过程中,我似乎没有得到正确的结果。谁能告诉我我做错了什么?NNetwork 类的整个代码很长,所以我发布了导致问题的部分:[编辑]:这实际上几乎是 NNetwork 类的全部
某些方法的名称(及其返回值/类型)是不言自明的,例如“this.getAllSums”返回每一层的总和(每个神经元的 sum(x_i*w_i)),“this.getAllOutputs”返回每层的输出(每个神经元的 sigmoid(sum))和返回第 i 层的第 j 个神经元的“this.getNeuron(i,j)”。
预先感谢您的帮助 :)
neural-network - PyBrain 如何解释 net.activate 的结果?
我已经在 PyBrain 上训练了一个用于分类的网络,并准备好使用特定的输入来启动。但是,当我这样做时
正如预期的那样,我得到了“输出”的数值,但是有没有办法直接确定预测的类标签?即使没有,我如何将“输出”的值映射到我的类标签?谢谢您的帮助。
python - 神经网络的反向传播 - Python
我正在编写一个程序来在 python 中执行神经网络我正在尝试设置反向传播算法。基本思想是,我查看 5,000 个训练示例并收集错误并找出我需要向哪个方向移动 theta,然后将它们向那个方向移动。有训练示例,然后我使用一个隐藏层,然后是一个输出层。但是,我在这里弄错了梯度/导数/错误,因为我没有正确移动 theta,因为它们需要移动。我今天花了 8 个小时,不知道我做错了什么。谢谢你的帮助!!
c++ - 我的神经网络学习 sin x 但不学习 cos x
我已经建立了自己的神经网络,但我遇到了一个奇怪的问题。
该网络是一个非常简单的具有反向传播学习的前馈 1-N-1 网络。Sigmoid 用作激活函数。
我的训练集是用 [-PI, PI] 与其 [0,1] 标度正弦值之间的随机值生成的(这是因为“Sigmoid-net”仅产生 [0,1] 和未标度正弦函数之间的值产生 [-1,1] 之间的值)。
使用该训练集,网络设置为 1-10-1,学习率为 0.5,一切正常,网络学习了 sin-function。但是..如果我对 COSINE 函数以同样的方式做所有事情,网络就不会学习它。没有任何隐藏层大小或学习率的设置。
有任何想法吗?我错过了什么吗?
编辑:我的问题似乎与这个小程序所见的相似。除非首先为权重教授“更简单”的东西(例如 1400 个二次函数循环),否则它似乎不会学习正弦函数。小程序中的所有其他设置都可以保持初始状态。因此,在正弦或余弦的情况下,在找到解决方案之前,权重似乎需要一些提升以至少部分正确的方向。为什么是这样?
python - Pybrain前馈神经网络训练错误完全卡住
嘿伙计们,我需要一些关于我的 pybrain 代码的帮助。一切都很好,但是在第一次训练之后,训练错误并没有下降。事实上,它只是停留在 13.3484055174 处。我已经多次检查我的代码并将其与其他示例进行比较,但我一直遇到同样的问题。我也已经尝试过更改隐藏单元的数量、学习率、动量、权重衰减,但无济于事。我检查了参数,它从 [-1 到 1] 开始,然后上升到 ~240-250。我想知道是否有人可以看到它为什么不起作用。我敢肯定这是我缺少的一个非常简单的 1-liner。
我正在研究 kaggle 0-9 数字分类数据集。我已经让随机森林工作了,但我真的想让这个神经网络也能工作。任何帮助将不胜感激。
machine-learning - 游戏跳棋神经网络的理想输入
我是神经网络的新手,我正在设计一个前馈神经网络来学习玩游戏跳棋。作为输入,必须给出棋盘,输出应该给出输赢的机会。但是如何将棋盘理想地转换为一排数字进行输入呢?每个方格有 32 个可能的方格和 5 种不同的可能性(国王或白棋或黑棋棋子和自由位置)。如果我为每个正方形的每个可能值提供一个输入单位,它将是 32 * 5。另一个选项是:
在这种情况下,输入长度仅为 64,但我不确定哪个会给出更好的结果?
java - 人工神经网络 PSO 训练
我正在使用 PSO 进行训练的 FF 神经网络(用于分类问题)。我只有一个隐藏层,我可以改变该层中神经元的数量。
我的问题是 NN 可以很容易地学习线性可分问题,但不能像它应该能够那样学习不能线性可分的问题(如 XOR)。
我相信我的 PSO 工作正常,因为我可以看到它试图最小化每个粒子的误差函数(使用训练集的均方误差)。
我尝试使用具有相似(坏)结果的 sigmoid 和线性激活函数。我也有一个偏置单元(这也没有多大帮助)。
我想知道的是,是否有一些我可能做错的特定事情可能导致这种类型的问题,或者可能只是一些我应该看看错误可能在哪里的事情。
我现在有点失落
谢谢
matlab - 在 Matlab 中创建前馈网络模型
我想实现一个像这样工作的模型:它有 3 个输入,例如 - 1,2,3,它给出 1 个输出 - 一个介于 0 到 1 之间的数字(包括 0 和 1)。该模型是一个前馈网络——首先,它“训练”——它得到输入和结果,然后,根据他的训练,它可以给出一个只给出输入的结果,例如:有一次他得到 1,2 ,3 和结果:0,他第二次得到 2,3,4,结果:0,第三次得到 3,4,5,结果:1. 第四次得到 4,5,6 但没有结果 - 所以基于根据他的知识和算法,他会给出一个结果,比如说:0.45。
我的问题是输入向量的大小和结果向量的大小必须相等,所以当我只需要 1 时,结果的向量必须包含 3 个元素 - 所以我让所有元素都相同,含义:它得到 [1 1 1] 或 [0 0 0] (我希望它不会破坏网络)。无论如何,这是我模型的代码——我实现得好吗?因为我不确定...