问题标签 [unsupervised-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - 从一组向量中学习表示
我目前正在处理以下问题:我有一组特征向量(实值)描述一个公共实体(如对象或事件)的不同实例。使用这些向量,我想学习该实体的通用表示(向量)(无论是在相同的向量空间中还是在简化的向量空间中)。
最直接的解决方案是使用算术平均值。但是,我想知道您是否也可以提出其他解决方案?
matlab - 如何在MATLAB中扩展ANFIS隶属函数的上下限?
我正在尝试在 MATLAB 上实现 ANFIS。我的输入数据操作范围是 0-180,但是 MATLAB 生成的 ANFIS 隶属函数限制在 0-10 之间。如何将其从 0 扩展到 180?另一个问题是我的 ANFIS 输入数据类似于“data = [80 20 40 50 15];” 由于输入,输出隶属函数未正确显示。请帮我解决这些问题。
unsupervised-learning - lingpipe中的EM软聚类
在 Lingpipe 的 EM 教程中,他们说可以在没有监督数据的情况下运行算法:
通过让初始分类器随机分配类别,可以以完全无监督的方式训练分类器。只有类别的数量必须是固定的。算法完全一样,收敛后的结果或者最大epoch数就是一个分类器。
但是他们的课程TradNaiveBayesClassifier
需要有标签和无标签的语料库才能运行。如何修改它以在没有标记数据的情况下运行?
algorithm - 有没有办法以编程方式从给定序列中的三个元素中找到模式?
一些背景
我发现自己在 Facebook 上遇到了一个数学模因(尽量不要笑):
显然,这是一个简单的问题,可以通过首先查看每个数字,就好像它们是二维网格中的元素一样,然后使用减法来查找变化。直觉上,我敢肯定,在这种情况下,每个人都会从假想网格的顶部开始,然后分析问题,首先将行评估为线性集。
变化将是两个元素之间的差异。如果只有两个元素,并且您必须预测这两个元素之后会发生什么,那么您最好的猜测是将开始时的数字之间的差异添加到序列中最左边的元素(我假设)。
问题
我难以理解的问题是推理过程——整个过程似乎含糊不清,对我来说太天生了,无法系统化。我是怎么想出答案的?我的大脑是在做特殊的手术吗?如果是这样,操作是什么?不查看每一行和每一列,只选择一个线性集,我如何找到三个数字之间的关系?有没有办法准确猜测每个元素之间的关系是什么?如果没有,是否需要存在最少数量的元素才能充分尝试得出可能的模式?
我知道计算机在以无人监督的方式学习时被迫经历这个过程,而且我知道人工智能领域相对较新且不发达,所以我不期待绝对的答案。如果可以从线性集合的三个元素中找到模式,我更想寻求一种好的方法。也许,通过提出这个问题,我会收集到相当具体的相关搜索查询。
python - Drawing clustered graphs in Python
I already have a way of clustering my graph, so the process of clustering isn't the issue here. What I want to do is, once we have all the nodes clustered - to draw the clustered graph in Python, something like this:
I looked into networkx, igraph and graph-tool, but they seem to do the clustering, but not the drawing. Any ideas and propositions of what library should I use for drawing the already clustered graph, which will minimize the number of crossing links?
machine-learning - 用于实值数据的受限玻尔兹曼机 - 高斯线性单元 (glu) -
我希望我的受限玻尔兹曼机学习实值数据的新表示(参见: Hinton - 2010 - A Practical Guide to Training RBMs)。我正在努力实现高斯线性单元。
随着可见层中的高斯线性单元,能量变为E(v,h)= ∑ (v-a)²/2σ - ∑ bh - ∑v/σ h w
。现在我不知道如何改变对比发散学习算法。可见单位将不再被采样,因为它们是线性的。我使用期望(平均激活)p(v_i=1|h)= a +∑hw + N(0,1)
作为他们的状态。关联保持不变( pos: data*p(h=1|v)'
neg: p(v=1|h)*p(h=1|v)'
)。但这只会在我想重建数据时导致随机噪声。错误率将在 50% 左右停止改善。
最后我想在两层都使用高斯线性单元。那么我将如何获得隐藏单元的状态呢?我建议使用平均场激活p(h_i=1|v)= b +∑vw + N(0,1)
,但我不确定。
python - 如何在python中绘制重叠簇
我正在尝试绘制从模糊 C 均值聚类算法获得的聚类的可视化。使用通过 k-means 获得的清晰集群,通过正常的散点图(例如通过 matplotlib 获得的散点图)很容易可视化。是否有推荐的方法来绘制模糊集群以可视化重叠?如果是,如何?
python - python中的共聚类算法
是否有可用于 python 中的任何共聚类算法的实现?scikit-learn 包具有 k-means 和层次聚类,但似乎缺少此类聚类。
machine-learning - 无监督感兴趣区域与词袋模型的异同
正如标题所暗示的那样,无监督学习感兴趣区域和计算机视觉词袋模型之间的异同是什么。
参考-
对于无监督的投资回报率: http ://www.cs.cmu.edu/~gunhee/publish/nips09_gunhee.pdf
对于词袋模型: http: //people.csail.mit.edu/fergus/iccv2005/bagwords.html
谢谢。
python - 标签传播 - 数组太大
我在 scikit learn 中使用标签传播进行半监督分类。我有 7 个维度的 17,000 个数据点。我无法在这个数据集上使用它。它抛出了一个 numpy 大数组错误。但是,当我处理相对较小的数据集(例如 200 点)时,它工作得很好。任何人都可以建议修复吗?