对你们中的许多人来说,这似乎是一个重复的问题,但我找不到令人满意的答案。
我有一个 TimeSeries 数据对象,我每 200 毫秒将数据附加到最坏情况。现在,这是非常非常重的内存,因为我知道它必须再次重新创建底层数据结构,而且它似乎没有清理旧对象。我尝试了类似的东西
old = mydata
mydata = mydata.append(...)
del old
这根本没有任何区别!
问题是我的进程在只有 1GB 内存的主机上工作,这种处理很快就会耗尽主机内存。
我需要将至少最后 30 小时的数据保存在内存中,因为每 200 毫秒/每个刻度执行一次分析。
任何优化内存的建议 - 并且仍然保留 pandas.TimeSeries 功能(基于时间间隔切片)。