问题标签 [regularized]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
matlab - 良好的 MSE 并不意味着逻辑回归中的良好预测?
我正在为正则化逻辑回归编写一些代码。我观察到这个有趣的现象,想知道这是正常现象还是只是我的代码错误。
对于损失函数,我使用的是逻辑损失函数(最大化二元变量的可能性)。为了进行预测,获得新观察的预测概率,并使用 AUC 来找到最佳阈值。
有趣的是,我经常遇到这样的情况,即估计参数的 MSE(偏差)比新观察的另一个参数好得多,但预测更差(差很多)。所以在我看来,均方误差可能与预测性能没有任何关系(比如线性回归的情况)。有人看到同样的事情吗?
python - python中机器学习库(例如scikit)中的非对称正则化
这个问题需要我在训练线性分类器时调整所选特征的权重。我正在使用 python SKlearn。
在谷歌上搜索了很多关于在 SKlearn 中为分类器加入非对称正则化的信息后,我找不到任何解决方案。执行此任务的核心库函数作为 Windows 的 DLL 提供,因此无法修改现有库。
是否有任何具有这种灵活性的 Python 机器学习库?任何形式的帮助将不胜感激。
r - R删除逻辑回归中的截距
我正在使用 rms 库来执行正则化逻辑回归,并希望将截距强制为零。我正在使用以下内容来模拟和回归:
如何在 R 中删除截距的帖子建议在模型公式中包含“0 +”或“- 1”。但是,这似乎不适用于 lrm。
glm - 如何在没有正则化的情况下使用 glmnet
我读过 glmnet 可以在没有正则化的情况下使用,即它可以用作常规 glm。我正在写一篇论文并试图避免使用许多不同的包,因此使用 glmnet 进行常规 glm 逻辑回归拟合会很方便。谁能帮我?
python - Python pandas 时间序列插值和正则化
我第一次使用 Python Pandas。我有 csv 格式的 5 分钟滞后流量数据:
有几个问题:
- 对于某些时间戳,缺少数据 (-1)
- 缺少条目(也是连续 2/3 小时)
- 观察的频率不完全是 5 分钟,但实际上偶尔会损失几秒钟
我想获得一个定期的时间序列,所以每(正好)5分钟输入一次(并且没有缺失值)。我已使用以下代码成功插入时间序列,以使用此代码逼近 -1 值:
如何对观察的频率进行插值和正则化?谢谢大家的帮助。
r - R:LiblineaR 包
我在 R 上使用 LiblineaR 包进行 L1 回归。但是,每次我运行它时,它似乎都会返回一个稍微不同的模型。这应该是非确定性的吗?
classification - l1/l2 正则化导致 vowpal wabbit 中所有特征权重为零是否合理?
我得到了一个奇怪的结果vw
,它使用在线学习方案进行逻辑回归。当我添加--l1
或--l2
正则化时,我得到的所有预测都是 0.5(这意味着所有特征都是 0)
这是我的命令:
...这是学习过程信息:
顺便说一句,特征的数量接近 80,000,每个样本只包含其中的一小部分(这就是为什么current features
只有 100 个左右)。
这是我的猜测,在目标函数/损失函数中,第二项regularization loss
可能会主导整个方程,这会导致这种现象吗?
我尝试了另一个数据集(前几天的)
machine-learning - 在给定特征数量的情况下找到随机森林的最大深度
如果我们知道特征的数量,我们如何找到随机森林的最大深度?
这是正则化随机森林分类器所必需的。
machine-learning - 为什么需要在机器学习问题中使用正则化?
这似乎是一个愚蠢的问题,但我就是想不出一个合理的答案。
据说正则化可以帮助我们获得简单模型而不是复杂模型,以避免过度拟合。但是对于线性分类问题:
模型的复杂性在某种程度上是明确的:它是线性的,不是二次的或更复杂的。那么为什么我们还需要对参数进行正则化呢?为什么在这种情况下我们更喜欢较小的权重?