问题标签 [deep-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - 了解多层感知器网络
我正在尝试了解如何训练多层;但是,我在弄清楚如何确定合适的网络架构时遇到了一些麻烦——即网络每一层中的节点/神经元的数量。
对于特定任务,我有四个输入源,每个输入源可以输入三种状态之一。我想这意味着四个输入神经元发射 0、1 或 2,但据我所知,输入应该保持二进制?
此外,我在选择隐藏层中的神经元数量时遇到了一些问题。任何评论都会很棒。
谢谢。
performance - 感知器学习算法的参数调整
我在试图弄清楚如何调整我的感知器算法的参数以便它在看不见的数据上表现相对较好时遇到了一些问题。
我已经实现了一个经过验证的工作感知器算法,我想找出一种方法来调整迭代次数和感知器的学习率。这是我感兴趣的两个参数。
我知道感知器的学习率不会影响算法是否收敛和完成。我试图掌握如何改变n。太快,它会摆动很多,太低,它会花费更长的时间。
至于迭代次数,我不完全确定如何确定一个理想的数字。
无论如何,任何帮助将不胜感激。谢谢。
machine-learning - 估计人工神经网络的神经元数量和层数
我正在寻找一种如何计算层数和每层神经元数量的方法。作为输入,我只有输入向量的大小、输出向量的大小和训练集的大小。
通常最好的网络是通过尝试不同的网络拓扑并选择误差最小的网络来确定的。不幸的是,我不能那样做。
machine-learning - 神经网络加权
最近我研究了反向传播网络并做了一些手动练习。在那之后,我提出了一个问题(也许没有意义):以下两种不同的替换方法有什么重要的吗: 1. 增量训练:一旦知道所有 delta Wij 并且在呈现之前,权重会立即更新下一个训练向量。2. 批量训练:为每个示例训练向量计算和存储 delta Wij。但是,delta Wij 不会立即用于更新权重。权重更新在训练时期结束时完成。
我已经用谷歌搜索了一段时间,但没有找到任何结果。
machine-learning - 训练神经网络时的 Epoch vs Iteration
训练多层感知器时, epoch和迭代有什么区别?
machine-learning - 是否有资源可以简单地解释 ANN?
我看过很多网站和博客解释 ANN(人工神经网络),但没有一个考虑到为不太了解 ANN 的人逐步开发基础的过程,而是投入了大量的数学,这不幸的是,对我来说看起来非常难以捉摸。是否有任何网站/博客可以教授一个简单的 ANN 程序来识别计算机生成的数字或比数字更简单的东西?
machine-learning - 反向传播神经网络中的最优特征实例比
我正在尝试使用反向传播神经网络为特定问题建模执行留一法交叉验证。我的训练数据中有 8 个特征和 20 个实例。我试图让 NN 在构建预测模型时学习一个函数。现在,问题是预测中的错误率非常高。我的猜测是,与所考虑的特征数量相比,训练中的实例数量更少。这个结论是否正确。是否有任何最佳特征与实例比率?
math - 为什么必须在反向传播神经网络中使用非线性激活函数?
我一直在阅读有关神经网络的一些东西,并且我了解单层神经网络的一般原理。我知道需要额外的层,但为什么要使用非线性激活函数?
这个问题之后是这个问题:用于反向传播的激活函数的导数是什么?
algorithm - 神经网络——所有输入向量的训练进度明显不均衡
我正在实现一个使用反向传播进行训练的前馈神经网络。当我在它学习的每个测试用例之后输出错误率时 - 我注意到在多个时期之后它开始很好地学习某些测试用例,但其他测试用例非常糟糕。即某些测试用例的错误非常低,但其他测试用例的错误非常高。
本质上,在几个时期之后,我注意到均方误差停滞在以下模式 - (每条线代表单个测试用例之后的 MSE)。
发生这种情况是否有任何可能的原因?
最初我认为这些导致高错误率的案例可能只是异常值 - 但正如模式所暗示的那样,它们太多了。会不会是我的学习者刚刚达到了局部最小值,需要一些动力才能摆脱它?
machine-learning - 多层感知器(MLP)架构:选择隐藏层数量和隐藏层大小的标准?
如果我们有 10 个特征向量,那么我们可以在输入层有 10 个神经节点。如果我们有 5 个输出类,那么我们可以在输出层有 5 个节点。但是在 MLP 中选择隐藏层数和多少神经元的标准是什么? 1个隐藏层中的节点?