问题标签 [hidden-markov-models]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
4 回答
2782 浏览

statistics - 隐马尔可夫模型

我想开始使用HMM,但不知道如何去做。这里的人可以给我一些基本的指示,在哪里看?

不仅仅是理论,我喜欢做很多实践。因此,我更喜欢资源,我可以在其中编写小代码片段来检查我的学习情况,而不仅仅是枯燥的文本。

0 投票
2 回答
2428 浏览

.net - .net 中的隐藏马尔可夫模型实现?

有谁知道.net中的任何HMM实现?

我所做的一些事情基本上是根据我对这个主题的一点了解以及我的一位教授所做的一个非常特定领域的应用程序的一些 c++ 代码进行逆向工程的。

我想对其进行一些改进,并与其他人使用相同语言的作品进行比较可以真正帮助确定我是否做对了。

0 投票
3 回答
8550 浏览

algorithm - Forward-backward算法和Viterbi算法有什么区别?

n-gram 模型上的 Forward-backward 算法和隐马尔可夫模型(HMM)上的 Viterbi 算法有什么区别?

当我回顾这两种算法的实现时,我唯一发现的是交易概率来自不同的概率模型。

这两种算法有区别吗?

0 投票
1 回答
248 浏览

image-processing - HMM 用于文档图像中的透视估计,无法理解算法

这是一篇论文,它是关于估计包含文本和一些噪声或非文本对象的二进制图像的透视。

PDF文件

该算法使用隐马尔可夫模型:实际上两个条件 T - 文本 B - 背景(即噪声)

算法本身很难理解。问题是我已经阅读了有关隐马尔可夫模型的内容,并且我知道它使用必须知道的概率。但是在这个算法中我无法理解,如果他们使用 HMM,他们如何获得这些概率(将状态从 S1 更改为另一个状态的概率,例如 S2)?

我在那篇论文中也没有找到任何关于培训的内容。所以,如果有人理解它,请告诉我。还有可能在不知道状态变化概率的情况下使用 HMM 吗?

编辑:可能他们正在使用一些估计,而不知道 HMM 参数(概率)

0 投票
1 回答
1420 浏览

algorithm - 线性时间的维特比算法

我有一个问题,给定一个隐马尔可夫模型和状态 SI 需要找到一个算法,该算法在时间 O(|S|) 内返回通过隐马尔可夫模型的给定序列 X 的最可能路径。

我正在考虑开发一个图,其中我将在 X 的不同位置拥有所有不同的状态,并在该图上运行最短路径算法。但是我将有 n|S|^2 个边(其中 n 是 X 中的状态数)和 n|S| 顶点。

我发现的最佳算法是在时间 O(|E|+|V|) 中运行的非循环最短路径,在我的情况下为 O(|S|^2)。有没有我可以开发的算法让它在 O(|S|) 时间内运行?我需要的只是总体思路。

谢谢

0 投票
1 回答
625 浏览

frame-rate - 第一人称射击游戏中的隐藏马尔可夫模型而不是 FSM

我一直在做一个课程项目,其中我们使用 FSM 实现了 FPS,通过显示游戏的顶部 2d 视图,并使用机器人、玩家和圆圈。机器人的行为是确定性的。例如,如果机器人的生命值降至阈值以下,并且玩家可见,机器人就会逃跑,否则它会寻找健康包。

然而,我觉得在这种情况下,机器人并没有表现出太多的智能,因为它做出的大部分决定都是基于我们已经决定的规则。

我可以使用哪些其他技术来帮助我在机器人中实现一些真正的智能?我一直在研究 HMM,我觉得它们可能有助于为机器人带来更多的不确定性,并且机器人可能会开始比依赖预先定义的规则更自主地做出决策。

你们有什么感想?任何意见,将不胜感激。

0 投票
1 回答
565 浏览

nlp - 如何使用 NLP 技术筛选成语并将短语与其他常用短语区分开来?

有哪些技术可以区分普通的常用短语,如“to the”、“and the”,以及具有自己词汇意义的短语和习语,如“pick up”、“fall in love”、“red herring” “, “死路”?

是否有即使没有字典也能成功的技术,例如 HMM 在大型语料库上训练的统计方法?

或者是否有启发式方法,例如忽略或加重可以与几乎任何单词同时出现的“混杂”单词,而不是单独出现或出现在一组特定的有限惯用短语中的单词?

如果有这样的启发式方法,我们如何考虑在“beat up”、“eat up”、“sit up”、“think up”中包含“up”等混杂词的固定短语和口头短语?

更新

我在网上找到了一篇有趣的论文:Unsupervised Type and Token Identication of Idiomatic Expressions

0 投票
1 回答
2139 浏览

python - 将 scikits.learn.hmm.GaussianHMM 拟合到可变长度的训练序列

我想让 scikits.learn.hmm.GaussianHMM 适合不同长度的训练序列。然而,拟合方法通过执行来防止使用不同长度的序列

它仅适用于形状相同的数组列表。有人对如何进行有提示吗?

0 投票
2 回答
359 浏览

hidden - 关于隐马尔可夫模型和条件随机场的困惑

我对隐马尔可夫模型和条件随机场有点困惑。我想知道它们是有监督的还是无监督的学习方法?谢谢

0 投票
2 回答
293 浏览

hidden-markov-models - 具有多个时间独立流的隐马尔可夫模型

我试图弄清楚是否有一种将两个 HMM 合并为一个的好方法,当基础状态相同但观察结果没有时间联系时。

我有两个独立的观察流来描述相同的隐藏状态空间。每个观察流的底层顺序保持不变,但它们不会同时发出。

例如,假设我有两个单独的扬声器大声朗读同一段文本的录音,其中隐藏状态空间成为文本中的字母,而来自每个音频的音素流构成观察空间。每个扬声器单独录制音频,并在阅读时使用不同的节奏。

我可以清楚地使用每个说话者独立地对文本进行预测,并在事后尝试协调结果……但我觉得将观察流组合成单个 HMM 可能会产生更好的结果。

有谁知道调和这个的好方法?