问题标签 [nolearn]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
219 浏览

python - 烤宽面条基本示例不起作用?

我直接从千层面文档中完成了千层面的安装步骤。现在我正在运行以下示例: https ://github.com/Lasagne/Lasagne/blob/master/examples/mnist.py

预期的输出显示在千层面文档的教程页面上。

但是,到目前为止,它挂在“开始训练……”这一行。它已经卡在这条线上很长一段时间了。

我的设置有什么明显的问题吗?

我下载了 MinGW gcc 并使用 pip 中的以下内容为其设置了环境变量以及 theano: https ://raw.githubusercontent.com/Lasagne/Lasagne/v0.1/requirements.txt

我还使用 pip 下载千层面,也下载了 numpy 和 scipy。

0 投票
0 回答
125 浏览

lasagne - 完整的 CNN - 是否可以在 (nolearn) 千层面中实施?

我目前正在使用一个非常简单的 CNN,并且我正在尝试找出一种将其变成完整 CNN 的方法。Full 我的意思是没有任何 Dense 层,而是实现 deconvnet。deconvnet 部分将用作 CNN 的定位部分。我想知道是否有办法在 nolearn 中实现 deconvnet 部分?详细来说,一个 Deconv2dlayer 和 Unpooling?有没有其他人更深入地研究它,甚至做过它?

以下是更多详细信息的参考:

https://datascience.stackexchange.com/questions/8999/deconvolutional-network-in-semantic-segmentation

0 投票
1 回答
467 浏览

python - Python:深度神经网络

我目前正在做一些与机器学习相关的项目。

我从对象中提取了一些特征。

所以我用 NB、SVM 和其他分类算法训练和测试了这些特征,得到了大约 70% 到 80% 的结果

当我使用 nolearn.dbn 用神经网络训练相同的特征然后对其进行测试时,我得到了大约 25% 的正确分类。我有 2 个隐藏层。

我仍然不明白神经网络有什么问题。

我希望能得到一些帮助。

谢谢

0 投票
0 回答
71 浏览

python - 使用 Theano 和 Lasagne AttributeError

现在我正在和当时和千层面一起工作。我有带有命名情绪的 .csv 输入文件,以及它们在照片上的坐标。我试图教神经网络通过坐标来理解情绪。当我将 .csv 文件解析为变量并将其提供给神经网络时,它会说

我试图重塑数据,但它给了我另一个错误(我认为,我做错了什么)。
这是我的代码: http: //pastebin.com/RAhPpLuw 这是火车数据:https ://www.dropbox.com/s/yeik1zum7z0iwm4/train1.csv?dl=0

0 投票
1 回答
121 浏览

python - 如何获取层上神经元的值?Python-nolearn

我使用 nolearn 库创建了神经网络。

如何在某些 x 上获得隐藏层神经元的值?我不会获得这些值并将它们用于其他算法以获得更好的结果。

0 投票
1 回答
735 浏览

lasagne - Trying to use ConcatLayer with different shape inputs

I am trying to work with nolearn and use the ConcatLayer to combine multiple inputs. It works great as long as every input has the same type and shape. I have three different types of inputs that will eventually produce a single scalar output value.

  • The first input is an image of dimensions (288,1001)

  • The second input is a vector of length 87

  • The third is a single scalar value

I am using Conv2DLayer(s) on the first input. The second input utilizes Conv1DLayer or DenseLayer (not sure which would be better since I can't get it far enough to see what happens) I'm not even sure how the third input should be set up since it is only a single value I want to feed into the network.

The code blows up at the ConcatLayer with: 'Mismatch: input shapes must be the same except in the concatenation axis'

It would be forever grateful if someone could write out a super simple network structure that can take these types of inputs and output a single scalar value. I have been googling all day and simply cannot figure this one out.

The fit function looks like this if it is helpful to know, as you can see I am inputting a dictionary with an item for each type of input:

0 投票
1 回答
416 浏览

neural-network - 神经网络回归预测的截止值

上下文:我有一组文档,每个文档都有两个相关的概率值:属于 A 类的概率或属于 B 类的概率。这些类是互斥的,概率加起来是一个。因此,例如文档 D 具有与基本事实相关联的概率 (0.6, 0.4)。

每个文档都由它包含的术语的 tfidf 表示,从 0 标准化到 1。我还尝试了 doc2vec(标准化形式 -1 到 1)和其他几种方法。

我构建了一个非常简单的神经网络来预测这个概率分布。

  • 具有与特征一样多的节点的输入层
  • 一个节点的单隐藏层
  • 具有 softmax 和两个节点的输出层
  • 交叉熵损失函数
  • 我还尝试了不同的更新功能和学习率

这是我使用 nolearn 编写的代码:

我的问题是:我的预测有一个截止点,并且没有预测低于该点(查看图片以了解我的意思)。 该图显示了真实概率和我的预测之间的差异。点越接近红线,预测越好。理想情况下,所有点都在线上。我该如何解决这个问题,为什么会这样?

编辑:实际上我通过简单地删除隐藏层解决了这个问题:

但是我仍然无法理解为什么我会遇到这个问题以及为什么删除隐藏层可以解决它。有任何想法吗?

这里是新的情节: 2

0 投票
1 回答
116 浏览

python - 用千层面逼近一个简单的 sin() 函数

我正在尝试千层面和 nolearn NeuralNet 函数来逼近一个简单的sin函数。毕竟,神经网络被证明是通用逼近器,所以我想在一个简单的非线性函数上尝试千层面来通过实验证明这一事实。这是代码:

我们得到以下函数:

标度 sin 函数

现在我们创建一个包含 100 个隐藏单元的简单神经网络来近似函数:

现在我们用训练好的网络预测x值,看看我们得到了什么:

这就是我们得到的!近似函数。太荒谬了!如果我们增加隐藏神经元的数量或训练时期,没有任何变化。其他类型的非线性只会使情况变得更糟。理论上这应该工作得更好,我错过了什么?

非常感谢。

0 投票
1 回答
581 浏览

python - 当这个类的 __call__ 方法在没有适当参数的情况下被调用时,它是如何工作的?

我正在阅读 Daniel Nouri 关于使用 CNN 进行面部识别的教程,我遇到了一些我不明白的代码。Daniel 正在定义一个在网络训练期间每次迭代结束时调用的类,这将决定训练是否应该提前停止:

这是有道理的,但是代码中的实际实现如下所示:

显然,Daniel 将类作为函数调用。但是,我不明白他是如何在没有显示的参数的情况下调用它的__call__(args)。这就是在 nolearn 的源代码中实现的方式吗?我对网络如何知道如何使用nn以及train_history没有将它们传递给函数感到困惑。

0 投票
1 回答
329 浏览

python - 如何使用 pickle 存储和读取 nolearn.lasagne NeuralNet 模型

如何在 nolearn.lasagne NeuralNet 模型中存储权重和偏差?从文档中,我看不到如何访问 NeuralNet 的权重和偏差并存储它们。