问题标签 [logistic-regression]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 如何在 weka 中使用不同的缩放方法
我logistic regression
在 weka 中使用我的数据。现在我想尝试不同的缩放方法来改进我的结果,例如最小/最大、零均值/单位、方差、长度等。
weka 中是否有使用缩放的选项?
machine-learning - 选择正则化参数
应用正则化逻辑回归时:我将数据分为训练集、交叉验证集和测试集。我想应用正则化并正在选择正则化参数 lambda。为此,我尝试了不同的 lambda 值,并将我的假设的参数 theta 拟合到训练集上。然后,我选择在验证集上给我最低成本函数的 lambda 值。为此,我应该使用惩罚项还是不使用惩罚项来计算验证集的成本函数?
r - 使用 R 进行条件逻辑回归(clogit 和 coxph)的 Rmpi
我正在尝试在具有多个节点的计算中心运行条件逻辑回归,以评估 9.69 亿行的大数据集。但是计算取消了,因为作业超过了最大容量节点的最大内存 90GB。
我听说 R 包“Rmpi”可以在多个节点上运行计算。
我正在使用以下代码运行条件 logit 回归:
是否可以使用 Rmpi 进行此计算,如果可以,我如何在代码中实现它?
我真的很感激任何帮助来解决这个问题。
非常感谢您提前。
machine-learning - 开始用java编写逻辑回归
我想使用 java 编写逻辑回归(分类问题)算法 -
假设是——
谁能告诉我 -<img src="https://i.stack.imgur.com/PcrjI.gif" alt="enter image description here">(-θ 幂 T) 是什么?
我能够编写线性回归,它的假设是相对容易的,但不能从逻辑回归开始。
r - 如何使用 R 在包含 X 平方的逻辑回归中用 CI 估计 X 的优势比?
我正在尝试计算 R 中不仅具有线性而且在逻辑回归中具有二次项的变量的优势比。假设模型中有 X 和 X^2。当 X 取特定值时,我知道如何获得优势比(对于 X 的单位变化),但我不知道如何计算此估计的置信区间。我发现这个参考是如何在 SAS 中完成的:http: //support.sas.com/kb/35/189.html,但我想在 R 中做。有什么建议吗?
@BenBolker 这是一个例子:
在本例中,gpa 的优势比取决于 gpa 的实际值(例如,如果 gpa=4,gpa 单位变化的影响)。我可以计算 gpa=5 和 gpa=4 的对数几率,并从中获得优势比,但我不知道如何获得 OR 的 CI。(请忽略示例中的平方项不是统计数据。显着......)
machine-learning - 最大熵模型和逻辑回归
我正在做一个需要做一些自然语言处理的项目。我为此目的使用stanford MaxEnt分类器。但我不确定最大熵模型和逻辑回归是同时还是某种特殊的逻辑回归?
谁能想出一个解释?
r - 逻辑回归的相反预测结果 - glm()
我的预测器有 2 个级别:
我的回答也有两个级别:
因此,很明显,这里存在完美的线性相关性。但是当我之后运行逻辑回归和预测时,我得到了这个:
然而,预测给了我与实际数据完全相反的结果:
有人知道这里出了什么问题吗?这怎么解释?
谢谢!
matlab - 我的随机梯度下降的实现是否正确?
我正在尝试开发随机梯度下降,但我不知道它是否 100% 正确。
- 我的随机梯度下降算法产生的成本有时与 FMINUC 或批量梯度下降产生的成本相差甚远。
- 虽然当我将学习率 alpha 设置为 0.2 时,批量梯度下降成本会收敛,但我不得不将学习率 alpha 设置为 0.0001,以便我的随机实现不会发散。这是正常的吗?
这是我使用 10,000 个元素和 num_iter = 100 或 500 的训练集获得的一些结果
逻辑回归的梯度下降实现
逻辑回归的随机梯度下降实现
作为参考,这是我的示例中使用的逻辑回归成本函数
hadoop - Mahout 中的逻辑回归\SVM 实现
我目前正在对一家电信公司数据的 twitter 数据进行情感分析。我正在将数据加载到 HDFS 中,并使用 Mahout 的朴素贝叶斯分类器来预测情绪是积极的、消极的还是中性的。
这就是我正在做的
我正在向机器提供训练数据 (key :sentiment,value:text) 。
使用 mahout 库通过计算文本的tf-idf(逆文档频率)来创建特征向量。
mahout seq2sparser -i /user/root/new_model/dataseq --maxDFPercent 1000000 --minSupport 4 --maxNGramSize 2 -a org.apache.lucene.analysis.WhitespaceAnalyzer -o /user/root/new_model/predicted
将数据拆分为训练集和测试集。
我将该特征向量传递给朴素贝叶斯算法来构建模型。
mahout trainnb -i /user/root/new_model/train-vectors -el -li /user/root/new_model/labelindex -o /user/root/new_model/model -ow -c
- 使用这个模型,我正在预测新数据的情绪。
这是我正在做的非常简单的实现,通过这种实现,即使我有很好的训练集,我的准确度也会很低。所以我正在考虑切换到逻辑回归/SVM,因为它们为这类问题提供了更好的结果。
所以我的问题是如何使用这些算法来构建我的模型或使用这两种算法预测推文的情绪。我需要遵循哪些步骤来实现这一目标?
python - Python SKLearn 逻辑回归中的虚拟变量
我在 SKLearn 中使用逻辑回归将数据分类为 5 个类别之一。为了训练数据,我有一个观察Y
矩阵和一个特征矩阵X
。
有时,我的矩阵Y
将没有第 3 类发言权。在这种情况下,当我调用该predict_proba(X)
方法时,我希望列出 5 个概率,其中第 3 个条目为 0(因为没有第 3 类观察值)。相反,这个概率被简单地省略,并返回 4 个概率的列表。
我怎样才能改变逻辑回归对象来做到这一点?