问题标签 [lasagne]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 泡菜蟒蛇千层面模型
我按照这里的食谱在千层面训练了一个简单的长短期记忆 (lstm) 模型:https ://github.com/Lasagne/Recipes/blob/master/examples/lstm_text_generation.py
这是架构:
该模型通过以下方式进行训练:
我怎样才能保存模型,这样我就不需要再次训练它了?使用 scikit 我通常只是腌制模型对象。但是,我不清楚与 Theano / lasagne 的类似过程。
python - 将 Conv2DLayer 与千层面 NeuralNet 一起使用时出错
我有 windows 8.1 64bit 并在此处推荐使用http://deeplearning.net/software/theano/install_windows.html#installing-theano python win-python 发行版(python 3.4)。我已经完成了教程的每一步(不包括 CUDA 的东西和 GPU 配置),卸载了所有东西,然后又做了一次,但我的问题仍然存在。我正在尝试使用千层面构建卷积神经网络。到目前为止我测试过的每一层都在工作——只有 Conv2DLayer 会抛出错误。代码如下:
下面我粘贴了我得到的错误。我想 gcc 出了点问题(我从教程中得到了确切的版本),但无法真正弄清楚问题所在。我有千层面/theano 的前沿版本。我已经尝试过 Anaconda 和 WinPython 发行版。我已经尝试过使用 python 2.7 和 3.4 并且无法真正找到任何解决此问题的方法。只有密集/最大池化层的网络运行得很好。我将不胜感激任何可以帮助我解决此问题的建议。
错误信息:
machine-learning - Lasagne 中的实时数据增强
我需要对我的数据集进行实时增强以输入到 CNN,但我很难找到合适的库。我已经尝试过caffe
,但DataTransform
不支持许多实时增强,如旋转等。所以为了便于实施,我解决了Lasagne
. 但它似乎也不支持实时增强。我看过一些关于Facial Keypoints detection
他在哪里使用Batchiterator
的帖子nolearn.lasagne
。但我不确定它是否是实时的。没有合适的教程。那么最后我应该如何Lasagne
通过nolearn
或其他方式进行实时增强?
python - 如何存储千层面神经网络对象
我正在尝试使用 Lasagne 和 NoLearn 训练 CNN。学习结束后,我想存储神经网络参数。
具体来说,
我无法使用 pickle() 因为对象 (nn) 的大小是几十 GB。我怎样才能在光盘上存储这么大的物体?
阿维塞克
python - nolearn/lasagne ImportError: No module named layers
当我尝试使用自己的数据集运行 CNN 程序CNN时出现错误。我在用着Python2.7
我之前已经升级了我的库,当我运行主文件时,我收到了这个错误:
numpy - Theano 类型错误
我正在阅读 jpg 图像,然后将它们重塑为张量。我将图像投射为 float32:
但是,我收到此错误
python - 线性回归千层面 / Theano
我正在尝试用千层面做一个简单的多元线性回归。这是我的输入:
对于这两个数据点,网络应该能够y
完美地学习。
这是模型:
多次执行后
成本爆炸到无穷大。知道这里出了什么问题吗?
谢谢!
neural-network - 试图在图像中找到对象坐标 (x,y),我的神经网络似乎无需学习即可优化错误
我生成粘贴在 200x200 大小的白色背景上的单个硬币的图像。该硬币是在 8 个欧元硬币图像中随机选择的(每个硬币一个),并且具有:
- 随机旋转;
- 随机大小(在固定范围内);
- 随机位置(这样硬币就不会被裁剪)。
这是两个示例(添加了中心标记):两个数据集示例
我正在使用 Python + 千层面。我将彩色图像输入神经网络,该神经网络具有 2 个完全连接的线性神经元的输出层,一个用于 x,一个用于 y。与生成的硬币图像相关联的目标是硬币中心的坐标 (x,y)。
我尝试过(来自使用卷积神经网络检测面部关键点教程):
- 具有各种层数和单元数(最大 500)的密集层架构;
- 卷积架构(输出前有 2 个密集层);
- 作为损失函数的总和或均方差 (MSE);
- 原始范围 [0,199] 或归一化 [0,1] 内的目标坐标;
- 层与层之间的 dropout 层,dropout 概率为 0.2。
我总是使用简单的 SGD,调整学习率,试图获得一个很好的递减误差曲线。
我发现当我训练网络时,误差会减小,直到输出始终是图像的中心。看起来输出与输入无关。看来网络输出是我给出的目标的平均值。这种行为看起来像是对误差的简单最小化,因为硬币的位置均匀分布在图像上。这不是想要的行为。
我感觉网络没有在学习,而只是在尝试优化输出坐标以最小化对目标的平均误差。我对吗?我怎样才能防止这种情况?我试图消除输出神经元的偏差,因为我想也许我只是在修改偏差并且所有其他参数都设置为零,但这不起作用。
单独的神经网络是否有可能在这项任务中表现出色? 我已经读过,人们也可以训练一个网络来进行当前/不存在的二进制分类,然后扫描图像以找到对象的可能位置。但我只是想知道是否可以仅使用神经网络的前向计算。
python - 如何在 Python 的 nolearn/lasagne/theano 中同时训练多个神经网络?
我正在编写一个校准管道来学习神经网络的超参数以检测 DNA 序列的属性*。因此,这需要在具有不同超参数的同一数据集上训练大量模型。
我正在尝试优化它以在 GPU 上运行。与图像数据集相比,DNA 序列数据集非常小(通常 4 个“通道”中有 10 或 100 个碱基对来表示 4 个 DNA 碱基 A、C、G 和 T,而 3 个 RGB 通道中有 10,000 个像素) ,因此无法充分利用 GPU 上的并行化,除非同时训练多个模型。
有没有办法在 nolearn、千层面或最糟糕的 Theano 中做到这一点?
*如果您有兴趣,它基于DeepBind 模型,用于检测转录因子与 DNA 结合的位置。
neural-network - get_all_param_values() 如何读取 lasagne.layer
我正在运行 Lasagne 和 Theano 来创建我的卷积神经网络。我目前包括
我的最后一层是一个密集层,它使用 softmax 来输出我的分类。我的最终目标是检索概率而不是分类(0 或 1)。
当我调用 get_all_param_values() 时,它为我提供了一个扩展数组。我只想要最后一个密集层的权重和偏差。你怎么办?我试过 l_out.W 和 l_out.b 和 get_values()。
提前致谢!