我目前正在尝试制作自定义 PyTorch DataLoader。
我知道drop_last=True
第一次声明 DataLoader 对象时的设置会告诉对象在大小不合适的情况下删除最后一个不完整的批次。但是,我想知道这是否可以反过来完成,DataLoader 从后面计算批次数和计数。
我问这个的原因是因为我当前使用的数据是时间序列数据,我想使用最新的样本,因此如果从最旧的部分删除“剩余”样本将是理想的数据。
我已经想到了一些方法,比如先反转数据,然后创建 DataLoader 对象并将其反转回原来的样子,或者首先反转数据并创建对象,然后idx
以相反的顺序输入running __getitem__
,但这似乎很麻烦并且容易出错,所以我想知道 PyTorch 是否提供这种行为。
提前致谢。