问题标签 [pytorch]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - AttributeError:无法在 Module.__init__() 调用之前分配模块
我收到以下错误。
我有一堂课如下。
因此,当我运行以下行时:
我收到上述错误。在这里,EmbeddingLayer
andEncoderRNN
是我编写的一个类,它nn.module
像QuestionClassifier
类一样继承。
我在这里做错了什么?
python - 未定义符号:导入 PyTorch 时的 PySlice_AdjustIndices
我正在尝试使用 PyTorch,并且我认为某些版本的东西没有排队。
据我所知,最新版本的 PyTorch (?) 中似乎有一些功能无法在我的系统上访问。我怀疑它与 Python 3.6.1 版而不是 3.6.0 版有关。但我无法弄清楚。如果有人对我可以做些什么来纠正这个错误有任何建议:
这是我系统的详细信息:
我在 AWS 上运行 Ubuntu,Ubuntu 16.04.2 LTS
我的 Cuda 信息是Cuda compilation tools, release 8.0, V8.0.61
我有蟒蛇,conda 4.3.15
我的python版本是Python 3.6.0 :: Anaconda custom (64-bit)
谢谢。
pytorch - 使用 pytorch 和 `TypeError: NoneType object is not callable` 训练 OpenNMT
我试图通过以下步骤在带有 cpu 的 mac 上训练OpenNMT 示例:
环境:python3.5,Pytorch 0.1.10.1
步骤1
通过在第133行之后插入以下行来预处理数据并缩小src
并仅包含前 100个句子tgt
preprocess.py
shrink = True
if shrink:
src = src[0:100]
tgt = tgt[0:100]
然后,我跑了
第2步
然后我训练使用python train.py -data data/demo.train.pt -save_model demo_model
然后在出现错误之前运行了一段时间:
你能告诉我如何解决吗?谢谢!
pytorch - RuntimeError:梯度不是 CUDA 张量
我收到以下错误。
loss.backward()
在 pytorch 中运行时。前向传播工作正常,但是当反向传播步骤执行时,我得到了错误。谁能建议我如何解决这个问题?
PS:源代码太长,我就不贴了!
neural-network - 如何计算 CNN 中的层数?
ResNet-18的 Pytorch 实现。具有以下结构,看起来是 54 层,而不是 18 层。
那么为什么叫“18”呢?它实际上有多少层?
autocomplete - pytorch 的 IDE 自动完成功能
我正在使用 Visual Studio 代码。最近尝试了风筝。两者似乎都没有 pytorch 的自动完成功能。
这些工具有可能吗?如果没有,有人可以推荐一个编辑器吗?
谢谢!
pytorch - AttributeError:类型对象'object'没有属性'__getattr__'
我有一个经过训练没有任何问题的 seq2seq 网络(一个类)。我在那个类中只有一个构造函数和一个转发函数。
在测试期间,我正在加载模型状态并尝试调用执行测试但出现以下错误的测试函数。
我在做什么:
当程序尝试执行最后一行时,会产生上述错误。知道为什么它不起作用吗?
model.test
功能:
python - Pytorch 重塑张量维度
例如,我有尺寸为 (5) 的一维向量。我想将其重塑为二维矩阵(1,5)。
这是我使用 numpy 的方法
但是我怎么能用 Pytorch 张量(和变量)做到这一点。我不想切换回 numpy 并再次切换到 Torch 变量,因为它会丢失反向传播信息。
这是我在 Pytorch 中所拥有的
现在我希望它的大小为 (1, 5)。如何在不丢失 grad 信息的情况下调整变量中 pytorch 张量的尺寸或重塑其尺寸。(因为我会在后退之前输入另一个模型)
gradient - 没有 CUDA 的 Pytorch .backward() 方法
我正在尝试在autograd 模块的Pytorch 教程中运行代码。但是,当我运行.backwards()
呼叫时,出现错误:
诚然,我目前没有设置支持 CUDA 的设备,但我的理解是这并不是绝对必要的(至少我没有在教程的任何地方找到它)。所以我想知道是否有办法在没有启用 CUDA 的 GPU 的情况下仍然运行代码。