torch::stack
接受 ac10::TensorList
并且在给出相同形状的张量时工作得很好。但是,当您尝试发送先前torch::stack
编辑的张量的输出时,它会失败并导致内存访问冲突。
更具体地说,假设我们有 3 个形状为 4 的张量,例如:
torch::Tensor x1 = torch::randn({4});
torch::Tensor x2 = torch::randn({4});
torch::Tensor x3 = torch::randn({4});
torch::Tensor y = torch::randn({4});
第一轮堆叠是微不足道的:
torch::Tensor stacked_xs = torch::stack({x1,x2,x3});
但是,尝试这样做:
torch::Tensor stacked_result = torch::stack({y, stacked_xs});
将失败。我希望获得与np.vstack
Python 中相同的行为,这是允许并有效的。我该怎么办?