问题标签 [mlp]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
scikit-learn - ScikitLearn 的 MLPClasssifier 在输出层使用什么样的激活?
我目前正在处理具有给定类标签 0 和 1 的分类任务。为此,我使用 ScikitLearnMLPClassifier
为每个训练示例提供 0 或 1 的输出。但是,我找不到任何文档,MLPClassifier 的输出层到底在做什么(哪个激活函数?编码?)。
由于只有一个类的输出,我假设使用了 One-hot_encoding 之类的东西。这个假设正确吗?是否有任何文档可以解决这个问题MLPClassifier
?
scikit-learn - SkikitLearn 学习曲线强烈依赖于 MLPClassifier 的批量大小???或者:如何诊断 NN 的偏差/方差?
我目前正在使用求解器 adam 和激活 relu 解决 ScikitLearn 中两个类的分类问题。为了探索我的分类器是否存在高偏差或高方差,我使用 Scikitlearns 内置函数绘制了学习曲线:
https://scikit-learn.org/stable/auto_examples/model_selection/plot_learning_curve.html
我正在使用带有 8 个拆分的 Group-K_Fold 交叉验证。然而,我发现我的学习曲线很大程度上取决于我的分类器的批量大小:
它应该是这样的吗?我认为学习曲线正在解决依赖于训练数据部分的准确性分数,独立于任何批次/时期?我真的可以将此内置函数用于批处理方法吗?如果是,我应该选择哪个批次大小(全批次或批次大小=训练示例的数量或介于两者之间)以及我从中得到什么诊断?或者您通常如何诊断神经网络分类器的偏差/方差问题?
帮助将不胜感激!
python - 为什么报告的损失与根据训练数据计算的均方误差不同?
为什么这段代码中的损失不等于训练数据中的均方误差?它应该相等,因为我设置了 alpha =0 ,因此没有正则化。
当我运行这段代码时,我发现 loss = 0.02061828 并且训练中的 MSE(MSE 训练) = 0.041
r - R中使用MLP回归的正则化(L1,L2,L1_L2)
对于我的作业,我需要使用 MLP 作为学习器并应用正则化(l1 - lasso,l2 - ridge,l1_l2 - elastic net)来编写波士顿住房数据的回归模型。
我找到了 keras 包和一些关于分类问题的信息,但对 R 中的回归模型一无所知。
有人对如何开始有任何提示吗?或者我怎么能做到这一点?我做了很多研究,但没有发现任何对 R 有帮助的东西。
很感谢任何形式的帮助!
最好的,米
python - ValueError:分类指标无法处理二进制和连续目标的混合
我正在建立一个二元分类模型。在这个模型中,有九个特征,分类的和连续的。其中一些特征是标签编码或一种热编码,而连续特征是标准化和规范化的。
在我到达这部分之前,该模型运行良好:
我得到了下面的错误。
我不明白,因为这显然是一个分类问题,我对此完全陌生。有人可以帮帮我吗?
classification - WEKA中的预测结果是什么意思?
我在 WEKA 中使用 SVM 和 MLP 进行分类。我设法让 WEKA 在 csv 文件中生成结果。但是,我无法理解正在显示的预测结果。
例如,实际结果 2:1,预测结果 1:0。有人能解释一下 2:1 和 1:0 代表什么吗?我知道它们是实际的和预测的结果,但我需要对这个值做进一步的解释。谢谢
keras - 如何将 Bert 嵌入提供给 LSTM
我正在研究用于文本分类问题的 Bert + MLP 模型。本质上,我试图用基本的 LSTM 模型替换 MLP 模型。
是否可以创建带有嵌入的 LSTM?或者,最好创建一个带有嵌入层的 LSTM?
更具体地说,我很难尝试创建嵌入式矩阵,因此我可以使用 Bert 嵌入创建嵌入层。
machine-learning - 如何设计 MLP 神经网络来预测成本?
我正在努力学习机器学习的基础知识,我需要使用 MLP(多层感知器)设计一个神经网络。
网络应该基于 4 个参数来预测汽车的总成本: - 每 100 公里的平均油耗(4.7 到 11.5 之间) - 汽车的重量(700 千克到 2300 千克之间) - 与汽车一起旅行的人数(2 到 4 之间)- 行程长度(10 公里到 8000 公里之间)
此外,我知道骑行的总成本(这里是输出)应该在 100 到 40000 之间。
我必须分析地设计网络,而无需编写任何代码。目的是更好地了解 MLP 网络类型。
我设计的神经网络有 4 个对应于列出的每个特征的入口单元,一个由 2 个神经元和一个输出神经元组成的隐藏层。
问题是我没有输入数据集,我不明白这些功能的范围将如何帮助我。
在这种情况下,我应该使用随机梯度下降计算权重,但由于这不是分类问题,我不确定如何获取输出神经元的权重。
keras - 将 NN 回归问题的输出限制在一定范围内的方法(即,我希望我的 NN 始终仅在 -20 到 +30 之间预测输出值)
我正在为回归问题训练 NN。所以输出层具有线性激活函数。NN 输出应该在 -20 到 30 之间。我的 NN 大部分时间都表现良好。但是,有时它会提供超过 30 的输出,这对我的系统来说是不可取的。那么有没有人知道任何可以对输出提供这种限制的激活函数或关于为我的应用程序修改线性激活函数的任何建议?
我正在为这个应用程序使用带有 tenserflow 后端的 Keras
machine-learning - 回到 XOR 问题的基础 - 从根本上混淆
这是关于 XOR 和 MLP 困扰我一段时间的事情。它可能是基本的(如果是这样,请提前致歉),但我想知道。
使用 MLP 解决 XOR 的方法有很多,但通常它们看起来像这样:
现在拟合模型:
你猜怎么着?
输出完美
得分:1.0
但预测和评分的是什么?在 XOR 的情况下,我们有一个数据集,根据定义(!)有四行、两个特征和一个二进制标签。没有标准X_train, y_train, X_test, y_test
可以使用。同样,根据定义,模型没有可以消化的看不见的数据。
预测以以下形式发生
这与进行培训的情况完全相同X
。
那么模型不只是吐回y
它训练的内容吗?我们怎么知道模型“学到”了什么?
编辑:只是想澄清什么让我感到困惑-这些功能有 2 个且只有 2 个唯一值;2 个唯一值有 4 种且只有 4 种可能的组合。每个可能组合的正确标签已经存在于标签列中。那么模型在fit()
被调用时要“学习”什么?这种“学习”是如何进行的?当模型可以访问每个可能的输入组合的“正确”答案时,它怎么会是“错误的”?
再次抱歉,这可能是一个非常基本的问题。