TL;DR:在 on_train_epoch_start 期间,我想获得模型在所有训练数据上的输出,作为一些预训练计算的一部分。我在问闪电友好的方法是什么。
这是一个奇怪的问题。
在我的项目中,每 10 个 epoch 我选择完整训练数据的一个子集,并仅在该子集上进行训练。在计算要使用哪个子集的部分过程中,我在训练数据集中的每个数据点上计算模型的输出。
我的问题是,在 pytorch 闪电中做到这一点的最佳方法是什么?目前我有一个带on_train_epoch_start
钩子的回调。在此挂钩期间,回调从生成自己的数据加载器trainer.datamodule.train_dataloader()
,并手动迭代数据加载器,计算模型输出。这并不理想,对吧?
这让我遇到了 pytorch 闪电的问题。例如,在 GPU 上训练时,我得到一个错误,因为我的回调使用它自己的数据加载器,而不是训练器的train_dataloader
,所以它不在 GPU 上。但是,我不能使用 trainer's train_dataloader
,因为在我的回调选择了它的子集之后,它会将 trainer's 更改train_dataloader
为只是那个子集,而不是完整的数据集。
我想我有两个主要问题:
- 有什么办法可以避免制作单独的数据加载器?我可以以某种方式调用火车循环吗?在完整数据集上获取模型输出似乎是一个简单的操作,我认为这将是单行的。
- 如何获取/使用与所有 Pytorch Lightning 自动修改同步的数据加载器?(例如 GPU/CPU、数据加载工作者、pin_memory)