0

我正在使用足够小的架构和足够小的数据集,可以很好地适应 GPU,而无需分批工作。

使用 pytorch 闪电训练器时,如何避免我的整个数据集在每个时期都从 CPU 移动到 GPU?有可能做到吗?

4

0 回答 0