问题标签 [bernoulli-probability]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
matlab - 重新启动随机发生器是否等同于重新启动伯努利进程?
我想模拟伯努利过程。我丢了 N 次硬币
现在有两种情况:
(i) 此时我继续投币直到 2*N:
(ii) 在这里我重新启动随机序列并继续下降直到 2*N:
在第一种情况下,2*N 次投掷中 k 次成功的概率计算为
第二种情况是否同样正确?或者由于发电机重置,我们不能将 2*N 周期视为单个进程?
machine-learning - 朴素贝叶斯分类器伯努利模型
我正在对发票和收据进行分类,我将使用伯努利模型。
这是朴素贝叶斯分类器:
P(c|x) = P(x|c) x P(c) / P(x)
我知道如何计算 P(c) 类先验概率,因为我们假设所有单词都是独立的,所以我们不需要 P(x)。
现在公式将是这样的: P(c|x) = P(x|c) x P(c) 为了计算 P(x|c),我们使用似然法计算所有单词的概率 P(c| X) = P(x1|c)P(x2|c)*P(x3|c)....
我的问题是在计算似然之后我是否需要将它与 P(c) 相乘,P(c|X) = P(x1|c)P(x2|c)*P(x3|c)... *个人电脑)?
python - 您可以在 sklearn 逻辑回归输入中使用计数吗?
所以,我知道在 R 中,您可以以这种形式为逻辑回归提供数据:
model <- glm( cbind(count_1, count_0) ~ [features] ..., family = 'binomial' )
cbind(count_1, count_0)
有没有办法用 sklearn.linear_model.LogisticRegression做类似的事情?还是我实际上必须提供所有这些重复的行?(我的特征是分类的,所以会有很多冗余。)
scipy - 使用 scipy 从伯努利分布中绘制数字
如何scipy
有效地从伯努利分布中提取数字?
r - 如何定义伯努利密度函数?
以下是为伯努利分布定义的函数。我是新的 R 用户。我不太了解以下代码。
我想在定义的函数中,我们已经将参数预先确定prob
为0.5
,那么为什么我们可以将其更改为0.7
使用定义的函数时呢?这些代码合理吗?我可以按如下方式更正吗?
r - 用不同概率的向量从 (0,1) 重复绘制的最佳方法是什么?(右)
c(0,1)
我经常面临这样的问题,即我想用不同的“成功”概率向量替换重复抽取样本prob
,例如
使用两个for
循环的两个选项是:
和
是否有更直接(最佳,优雅)的方法来做到这一点,例如不使用for
循环?
r - R错误:维数不正确
我有一些分类数据显示植物家族、果实类型、果实颜色和种子散布,其中响应变量(散布)为 0 表示否或 1 表示是。
我正在执行二项式 GLM,并且正在使用 MuMIn 包来“疏通”全局模型。
当我尝试根据 AICc 权重绘制最重要的模型时(正如我之前在其他迭代中所做的那样),我收到警告错误:
"Error in pal[, 1L + ((i - 1L)%%npal)] : incorrect number of dimensions"
有谁知道为什么会这样?我在许多其他迭代中使用了相同的代码(即更改响应变量)并且以前没有问题。
matlab - Matlab 上的最大似然(多元伯努利)
我是 MATLAB 环境的新手,无论我多么努力,似乎我都无法理解如何为多元伯努利构造 ML 算法。
我有一个包含 N 个变量 (x1,x2,...,xN) 的数据集,每个变量都是一个 D 维向量 (Dx1),参数向量的形式为 p=(p1,p2,...,pD ) . 所以伯努利分布应该有以下形式:
我创建的代码使用 MATLAB 的 mle 函数:
这给了我一个来自数据集的估计概率的 D 向量。但是,我真正感兴趣的是如何在逐步的 MATLAB 过程中实现 ML,而不仅仅是使用 mle。
非常感谢。
machine-learning - 用于朴素贝叶斯分类器的伯努利模型的拉普拉斯平滑
我必须实现一个朴素贝叶斯分类器来将文档分类为一个类。因此,在获得属于类的项的条件概率时,连同拉普拉斯平滑,我们有:
prob(t | c) = Num(c 类文档中的单词出现次数) + 1 / Num(c 类文档) + |V|
它是一个伯努利模型,有 1 或 0,词汇量非常大,可能有 20000 个单词等等。因此,由于词汇量大,拉普拉斯平滑不会给出非常小的值,还是我做错了什么。
根据此链接的伪代码:http: //nlp.stanford.edu/IR-book/html/htmledition/the-bernoulli-model-1.html,对于伯努利模型,我们只需添加 2 而不是 |V| . 为什么这样?