我打算在pyG mini-batch上使用self-attention,wq,WK,WV大小应该是[batch_nodes],[batch_num_nodes],[batch_num_nodes] 但是现在有问题了。由于每个 Nini-Batch 图中的节点数量不同,因此 wq、Wk 和 WV 的维度一直在变化。请问这种情况怎么处理?
我打算在pyG mini-batch上使用self-attention,wq,WK,WV大小应该是[batch_nodes],[batch_num_nodes],[batch_num_nodes] 但是现在有问题了。由于每个 Nini-Batch 图中的节点数量不同,因此 wq、Wk 和 WV 的维度一直在变化。请问这种情况怎么处理?