问题标签 [tensor]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 张量流中的等效列表理解
如何使用字典将包含 N int 的等级 1 的张量修改为包含大小为 M 的 N 向量的等级 2 的张量
在 python 中类似于:
但我不能迭代张量(除了while循环,但我认为这不是最佳解决方案)
python - 在 TensorFlow 中初始化变量的最佳方法是什么?
在 TensorFlow 中,我可以通过两种方式初始化变量:
/li>global_variable_intializer()
在声明变量之前调用:
/li>global_variable_intializer()
变量声明后调用:
两者有什么区别?初始化变量的最佳方法是什么?
编辑
这是我正在运行的实际程序:
python - 有没有办法在张量流的张量点操作中广播张量?
我想乘以张量形式表示的堆叠矩阵。
其中 2 和 5 是批量大小,
tensor2.shape == [5,6,8]
其中 5 是批量大小。
在numpy中,tensor2自动广播到[2,5,7,6]张量
所以我可以轻松使用np.matmul(tensor,tensor2)
但在张量流中,会发生错误。
我试过tf.expand_dims(tensor2,0)
了,但这也不起作用
有没有办法在张量流中广播张量?
tensorflow - TensorFlow 文档中是否正确描述了有效的“tf.matmul”参数?
也许我对什么是“内部”和“外部”张量维度感到困惑,但文档让tf.matmul
我感到困惑:
输入必须是矩阵(或秩 > 2 的张量,表示矩阵批次),具有匹配的内部维度,可能在转置之后。
不是 R 秩参数需要匹配(或没有)R-2 外部维度,并且(如在正常矩阵乘法中)第一个参数的 Rth 内部维度必须匹配 R-1st 维度吗?第二个。也就是说,在
外部尺寸a, ..., z
必须相同a', ..., z'
(或不存在),x
并且x'
必须匹配(而p
和q
可以是任何东西)。
或者换一种说法,文档不应该说:
在任何转置之后,输入必须是秩 ≥ 2 的张量,其中内部 2 维指定有效的矩阵乘法参数,并且任何进一步的外部维度匹配。
numpy - 如何将 Pytorch autograd.Variable 转换为 Numpy?
标题说明了一切。我想将 a 转换PyTorch autograd.Variable
为其等效numpy
数组。在他们的官方文档中,他们提倡使用a.numpy()
来获取等效numpy
数组(for PyTorch tensor
)。但这给了我以下错误:
回溯(最后一次调用):文件“stdin”,第 1 行,模块文件“/home/bishwajit/anaconda3/lib/python3.6/site-packages/torch/autograd/variable.py”,第 63 行,在getattr raise AttributeError(name) AttributeError: numpy
有什么办法可以规避这个吗?
r - 运行 MXNetR 时与数据形状相关的错误
我正在尝试使用 MXNetR 构建前馈神经网络。我的输入是一个有 6380 行和 180 列的数据框。我的训练和测试输出是一维向量,每个向量有 319 个元素。
我运行模型时将批大小设置为 1,输出层的神经元数量设置为 319。因此,对于每个批,我希望得到一个包含 319 个元素的向量。我的目标是最小化我的损失函数,这是我的预测输出向量和实际输出向量之间的相关性。
下面是我的代码:
这是我运行上面的代码时的错误:
目前,我对如何修复此错误一无所知。我一直在寻找一种方法来重塑我的数据集,使它们成为 4D 张量,但找不到任何东西。我不会为我的问题寻找一个明确的解决方案,但是任何关于我应该如何解决这个错误的建议都将不胜感激。
python - tensorflow cifar-10 读取数据卡住
我正在尝试使用 tensorflow 读取 cifar10 输入数据。我知道 tensorflow/models github repo 下存在 cifar10.py。运行以下代码时,它基本上会卡住并且在屏幕上不显示任何结果。帮助表示感谢。
gpu - 将函数元素应用于 Pytorch CUDA 张量的并行方式
假设我有一个火炬 CUDA 张量,我想应用一些函数,sin()
但我已经明确定义了函数F
。如何使用并行计算F
在 Pytorch 中应用。
variables - tensorflow中python代码中同名的张量
根据中的代码:https://github.com/tensorflow/models/blob/master/tutorials/image/cifar10/cifar10.py,张量变量使用相同的名称,例如:
和,
因此,为什么在张量流中允许这样做?如果出于某种原因,如果我试图说:
那么我们将评估哪个 conv 张量?
其次,如果CONV1层下的conv张量是指操作。CONV2下的另一个conv张量怎么会引用第二次操作呢?换句话说,如何分别对待它们?tf.nn.conv2d
tf.nn.conv2d
任何帮助深表感谢!!
image - Tensorflow - 图像和标签的洗牌和拆分数据集
Tensorflow 的新功能,我使用神经网络对图像进行分类。我有一个Tensor
包含图像的形状 [N, 128, 128, 1]
(N 个图像 128x128 和 1 个通道),以及一个包含图像标签的Tensor
形状。[N]
我想把它全部洗牌,然后在训练和测试张量之间分开(比如说 80%-20%)。我没有找到一种方法来“压缩”我的张量以将每个图像与其标签相关联(以便以相同的方式打乱图像和标签)。可能吗 ?如果没有,我怎样才能完成洗牌/拆分工作?
谢谢你的帮助 !