问题标签 [tensor]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 了解张量点
在我学会了如何使用之后einsum
,我现在正试图了解它是如何np.tensordot
工作的。
但是,我有点迷茫,特别是关于参数的各种可能性axes
。
为了理解它,由于我从未练习过张量演算,我使用以下示例:
在这种情况下,有什么不同的可能np.tensordot
,您将如何手动计算?
python - 张量流中 numpy.newaxis 的替代方案是什么?
嗨,我是张量流的新手。我想在 tensorflow 中实现以下 python 代码。
python - PyTorch 中的“视图”方法是如何工作的?
我view()
对以下代码片段中的方法感到困惑。
我的困惑是关于以下行。
函数有什么tensor.view()
作用?我在很多地方都看到过它的用法,但我不明白它是如何解释它的参数的。
如果我将负值作为view()
函数的参数,会发生什么?例如,如果我打电话,会发生什么tensor_variable.view(1, 1, -1)
?
谁能view()
用一些例子来解释功能的主要原理?
tensorflow - 什么是二维浮点张量?
Disclamer:我对 CNN 和深度学习一无所知,也不了解Torch。
我将SIFT用于我的对象识别应用程序。我发现这篇论文Discriminative Learning of Deep Convolutional Feature Point Descriptors特别有趣,因为它基于 CNN,比经典的图像描述方法(例如 SIFT、SURF 等)更精确,但是(引用摘要):
在训练和测试期间使用 L2 距离,我们开发了 128-D 描述符,其欧几里德距离反映了块相似性,并且可以用作任何涉及 SIFT 的任务的替代品
哇,太棒了:这意味着我们可以继续使用任何基于 SIFT 的方法,但要使用更精确的描述符!
但是,引用github 代码存储库README:
请注意,输出将是一个 Nx128 2D 浮点张量,其中每一行都是一个描述符。
那么,什么是“2D 浮点张量”?SIFT 描述符矩阵是 Nx128 浮点数,有什么我遗漏的吗?
python - 在 PyTorch 中保存训练模型的最佳方法是什么?
我一直在寻找在 PyTorch 中保存训练模型的替代方法。到目前为止,我找到了两种选择。
- torch.save()保存模型和torch.load()加载模型。
- model.state_dict()保存训练好的模型,model.load_state_dict()加载保存的模型。
我遇到过这个讨论,其中建议使用方法 2 而不是方法 1。
我的问题是,为什么首选第二种方法?仅仅是因为torch.nn模块具有这两个功能,我们被鼓励使用它们吗?
python - 使用 np.tensordot 的矩阵的 Khatri 乘积
我正在尝试将张量 (m, n, o) 分解为矩阵 A(m, r)、B (n, r) 和 C (k, r)。这称为 PARAFAC 分解。Tensorly已经进行了这种分解。
一个重要的步骤是将 A、B 和 C 相乘以获得形状为 (m, n, o) 的张量。
张量按如下方式执行此操作:
但是,我使用的包(Autograd)不支持np.ix_
操作。因此,我写了一个更简单的定义如下:
然而,事实证明,这个实现也有一些 autograd 不支持的方面。但是,autograd 确实支持np.tensordot
.
我想知道如何使用np.tensordot
来获得这个乘法。我认为 Tensorflowtf.tensordot
也会有类似的功能。
预期的解决方案应该是这样的:
graph - TensorFlow:使用指标操作(例如准确性)恢复图形,得到错误“张量”对象没有属性“初始化器”
在使用度量操作(例如来自 tf.python.ops.metrics 的准确度)训练图表后,我尝试恢复图表并评估测试集的准确度。但是,在使用 tf.import_meta_graph 恢复图形后,当我尝试使用 tf.local_variables_initializer() 初始化局部变量(这是必要的)时,出现错误,它说 'Tensor' 对象没有属性 'initializer'。
如果我在恢复后打印局部变量,有两个 Tensorflow 张量可能会导致问题。这两个 tensorlow 张量源于准确度指标:
有人可以帮我弄这个吗?谢谢!
类似代码:
python - 使用 Tensorflow 在运行时拟合张量的索引向量
我有这个使用Tensorflow 框架的 python 函数:
当我运行程序时,我得到这个错误:
好像gain_vector.get_shape()[0]没有得到增益向量的向量,有什么问题?
c++ - 在张量流中使用 eigen::matrix 乘法的最佳方法是什么?将张量转换为矩阵,然后将其转换回来?
我想在 tensorflow 的 c++ 中添加一个新的操作。我想将矩阵乘法应用于张量。我将张量转换为 Eigen::matrix 以获得产品,然后将其转换回张量。
写这样的代码很痛苦。有什么建议吗?
python-2.7 - 将一维张量的元素除以对应索引
我在 python 2.7 中使用 Tensorflow。
我有一个像这样的二进制一维张量:
我想通过对应索引计算张量的每个元素的比率之和。
例如,我需要计算:
是否有一个Tensorflow函数可以做到这一点?