问题标签 [lasagne]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
3 回答
4630 浏览

python - 泡菜蟒蛇千层面模型

我按照这里的食谱在千层面训练了一个简单的长短期记忆 (lstm) 模型:https ://github.com/Lasagne/Recipes/blob/master/examples/lstm_text_generation.py

这是架构:

该模型通过以下方式进行训练:

我怎样才能保存模型,这样我就不需要再次训练它了?使用 scikit 我通常只是腌制模型对象。但是,我不清楚与 Theano / lasagne 的类似过程。

0 投票
1 回答
1189 浏览

python - 将 Conv2DLayer 与千层面 NeuralNet 一起使用时出错

我有 windows 8.1 64bit 并在此处推荐使用http://deeplearning.net/software/theano/install_windows.html#installing-theano python win-python 发行版(python 3.4)。我已经完成了教程的每一步(不包括 CUDA 的东西和 GPU 配置),卸载了所有东西,然后又做了一次,但我的问题仍然存在。我正在尝试使用千层面构建卷积神经网络。到目前为止我测试过的每一层都在工作——只有 Conv2DLayer 会抛出错误。代码如下:

下面我粘贴了我得到的错误。我想 gcc 出了点问题(我从教程中得到了确切的版本),但无法真正弄清楚问题所在。我有千层面/theano 的前沿版本。我已经尝试过 Anaconda 和 WinPython 发行版。我已经尝试过使用 python 2.7 和 3.4 并且无法真正找到任何解决此问题的方法。只有密集/最大池化层的网络运行得很好。我将不胜感激任何可以帮助我解决此问题的建议。

错误信息:

0 投票
3 回答
929 浏览

machine-learning - Lasagne 中的实时数据增强

我需要对我的数据集进行实时增强以输入到 CNN,但我很难找到合适的库。我已经尝试过caffe,但DataTransform不支持许多实时增强,如旋转等。所以为了便于实施,我解决了Lasagne. 但它似乎也不支持实时增强。我看过一些关于Facial Keypoints detection他在哪里使用Batchiterator的帖子nolearn.lasagne。但我不确定它是否是实时的。没有合适的教程。那么最后我应该如何Lasagne通过nolearn或其他方式进行实时增强?

0 投票
2 回答
844 浏览

python - 如何存储千层面神经网络对象

我正在尝试使用 Lasagne 和 NoLearn 训练 CNN。学习结束后,我想存储神经网络参数。

具体来说,

我无法使用 pickle() 因为对象 (nn) 的大小是几十 GB。我怎样才能在光盘上存储这么大的物体?

阿维塞克

0 投票
0 回答
2315 浏览

python - nolearn/lasagne ImportError: No module named layers

当我尝试使用自己的数据集运行 CNN 程序CNN时出现错误。我在用着Python2.7

我之前已经升级了我的库,当我运行主文件时,我收到了这个错误:

0 投票
2 回答
228 浏览

numpy - Theano 类型错误

我正在阅读 jpg 图像,然后将它们重塑为张量。我将图像投射为 float32:

但是,我收到此错误

0 投票
1 回答
1528 浏览

python - 线性回归千层面 / Theano

我正在尝试用千层面做一个简单的多元线性回归。这是我的输入:

对于这两个数据点,网络应该能够y完美地学习。

这是模型:

多次执行后

成本爆炸到无穷大。知道这里出了什么问题吗?

谢谢!

0 投票
1 回答
6055 浏览

neural-network - 试图在图像中找到对象坐标 (x,y),我的神经网络似乎无需学习即可优化错误

我生成粘贴在 200x200 大小的白色背景上的单个硬币的图像。该硬币是在 8 个欧元硬币图像中随机选择的(每个硬币一个),并且具有:

  • 随机旋转;
  • 随机大小(在固定范围内);
  • 随机位置(这样硬币就不会被裁剪)。

这是两个示例(添加了中心标记):两个数据集示例

我正在使用 Python + 千层面。我将彩色图像输入神经网络,该神经网络具有 2 个完全连接的线性神经元的输出层,一个用于 x,一个用于 y。与生成的硬币图像相关联的目标是硬币中心的坐标 (x,y)。

我尝试过(来自使用卷积神经网络检测面部关键点教程):

  • 具有各种层数和单元数(最大 500)的密集层架构;
  • 卷积架构(输出前有 2 个密集层);
  • 作为损失函数的总和或均方差 (MSE);
  • 原始范围 [0,199] 或归一化 [0,1] 内的目标坐标;
  • 层与层之间的 dropout 层,dropout 概率为 0.2。

我总是使用简单的 SGD,调整学习率,试图获得一个很好的递减误差曲线。

我发现当我训练网络时,误差会减小,直到输出始终是图像的中心。看起来输出与输入无关。看来网络输出是我给出的目标的平均值。这种行为看起来像是对误差的简单最小化,因为硬币的位置均匀分布在图像上。这不是想要的行为。

我感觉网络没有在学习,而只是在尝试优化输出坐标以最小化对目标的平均误差。我对吗?我怎样才能防止这种情况?我试图消除输出神经元的偏差,因为我想也许我只是在修改偏差并且所有其他参数都设置为零,但这不起作用。

单独的神经网络是否有可能在这项任务中表现出色? 我已经读过,人们也可以训练一个网络来进行当前/不存在的二进制分类,然后扫描图像以找到对象的可能位置。但我只是想知道是否可以仅使用神经网络的前向计算。

0 投票
0 回答
863 浏览

python - 如何在 Python 的 nolearn/lasagne/theano 中同时训练多个神经网络?

我正在编写一个校准管道来学习神经网络的超参数以检测 DNA 序列的属性*。因此,这需要在具有不同超参数的同一数据集上训练大量模型。

我正在尝试优化它以在 GPU 上运行。与图像数据集相比,DNA 序列数据集非常小(通常 4 个“通道”中有 10 或 100 个碱基对来表示 4 个 DNA 碱基 A、C、G 和 T,而 3 个 RGB 通道中有 10,000 个像素) ,因此无法充分利用 GPU 上的并行化,除非同时训练多个模型。

有没有办法在 nolearn、千层面或最糟糕的 Theano 中做到这一点?

*如果您有兴趣,它基于DeepBind 模型,用于检测转录因子与 DNA 结合的位置。

0 投票
2 回答
1512 浏览

neural-network - get_all_param_values() 如何读取 lasagne.layer

我正在运行 Lasagne 和 Theano 来创建我的卷积神经网络。我目前包括

我的最后一层是一个密集层,它使用 softmax 来输出我的分类。我的最终目标是检索概率而不是分类(0 或 1)。

当我调用 get_all_param_values() 时,它为我提供了一个扩展数组。我只想要最后一个密集层的权重和偏差。你怎么办?我试过 l_out.W 和 l_out.b 和 get_values()。

提前致谢!