问题标签 [pytorch]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
3 回答
13055 浏览

python - PyTorch:在 nn.Sequential() 中访问特定模块的权重

当我在 PyTorch 中使用预定义模块时,我通常可以很容易地访问它的权重。但是,如果我先包装模块,如何访问它们nn.Sequential()?rg:

我现在如何打印权重? model_2.layer.0.weight不起作用。

0 投票
3 回答
1504 浏览

python - 深度学习:通过不同的库保存和加载通用机器模型

我的问题可以分为两部分。

  • 是否有可以通过不同库使用的机器学习模型文件格式?比如我用pytorch保存了一个模型,然后用tensorflow加载?

  • 如果没有,是否有可以帮助传输格式的库,以便可以在 keras 中直接使用 pytorch 机器学习模型?

之所以问这个问题,是因为最近需要将之前在tensorflow中训练的一些模型调整为pytorch。

这个问题的更新: Facebook 和微软将推出一个名为 ONNX 的模型标准,用于在不同框架之间传输模型,例如在 Pytorch 到 Caffe2 之间。链接如下:

https://research.fb.com/facebook-and-microsoft-introduce-new-open-ecosystem-for-interchangeable-ai-frameworks/

这个问题的进一步更新: Tensorflow 本身使用 Protocol Buffer 格式来存储模型文件,可以用于不同模型之间的传输。链接如下:

https://www.tensorflow.org/extend/tool_developers/

0 投票
8 回答
55956 浏览

python - 如何在 PyTorch 中获得 [r1,r2] 范围内的均匀分布?

我想在 PyTorch中获得一个torch.Tensor大小[a,b]填充了来自均匀分布(在 range 中)的值的二维。[r1,r2]

0 投票
1 回答
21855 浏览

linux - 如何在 docker 映像中安装 python 模块?

我有一个名为:的图像Image和一个正在运行的容器:container。我想安装pytorchanacoda. 最简单的方法是什么?我是否必须更改dockerfile并构建新图像?非常感谢。

0 投票
2 回答
17610 浏览

numpy - 如何将 Pytorch autograd.Variable 转换为 Numpy?

标题说明了一切。我想将 a 转换PyTorch autograd.Variable为其等效numpy数组。在他们的官方文档中,他们提倡使用a.numpy()来获取等效numpy数组(for PyTorch tensor)。但这给了我以下错误:

回溯(最后一次调用):文件“stdin”,第 1 行,模块文件“/home/bishwajit/anaconda3/lib/python3.6/site-packages/torch/autograd/variable.py”,第 63 行,在getattr raise AttributeError(name) AttributeError: numpy

有什么办法可以规避这个吗?

0 投票
1 回答
622 浏览

python - 长序列在有注意力的 seq2seq 模型中?

我正在关注这个 pytorch 教程,并尝试将此原则应用于摘要,其中编码序列约为 1000 个单词,解码器目标为 200 个单词。

我该如何申请seq2seq?我知道一次完成 1000 个单词的整个序列会非常昂贵并且几乎不可行。因此,将 seq 分成 20 个 seq 并并行运行可能是一个答案。但我不确定如何实现它;我也想把注意力融入其中。

0 投票
2 回答
222 浏览

python - 火炬:使用 net:cuda() 和使用 cudnn.somemodules 有什么区别?

我想知道两者之间的区别是什么:

  1. net:cuda()制作神经网络后使用:
  1. cudnn.somemodules在完成神经网络的过程中使用:
0 投票
3 回答
6028 浏览

python - PyTorch 线性层输入维度不匹配

将输入数据传递给 PyTorch 中的线性(全连接层)时出现此错误:

我完全理解这个问题,因为输入数据的形状为 (N,C,H,W)(来自 Convolutional+MaxPool 层),其中:

  • N:数据样本
  • C:数据的渠道
  • H,W:高度和宽度

尽管如此,我还是希望 PyTorch 对数据表单进行“重塑”:

  • [ N , D1,...Dn] --> [ N, D] 其中 D = D1*D2*....Dn

我尝试重塑 Variable.data,但我读到不建议使用这种方法,因为渐变会保留以前的形状,而且通常你不应该改变 Variable.data 形状。

我很确定该框架有一个简单的解决方案,但我还没有找到。

有没有好的解决方案?

PD:全连接层的输入大小为 C * H * W

0 投票
2 回答
37752 浏览

torch - PyTorch 和 Torch 是什么关系?

有两个 PyTorch 存储库:

第一个显然需要 Torch 和 lua 并且是一个包装器,但第二个除了名称之外没有提及 Torch 项目。

它与Lua Torch有什么关系?

0 投票
1 回答
1187 浏览

python - 矩阵乘法的基本多 GPU 并行化

我想在 2 个 GPU 上并行化以下简单表达式:在对结果求和之前在 GPU 0 和GPU 1 上进行C = A^n + B^n计算。A^nB^n

在 TensorFlow 中,我会喜欢:

但是,由于 PyTorch 是动态的,所以我在做同样的事情时遇到了麻烦。我尝试了以下方法,但只需要更多时间。

我知道有一个模块可以在批处理维度上并行化模型,torch.nn.DataParallel但在这里我尝试做一些更基本的事情。