我在 S3 中有一堆文件,它们包含一个大于内存的数据帧。
目前,我使用 Dask 将文件读入数据帧,使用较小的数据集执行内部连接(每次调用此函数时都会更改,而huge_df
基本上是完整的数据集并且不会更改),调用计算以获取小得多的熊猫数据框,然后做一些处理。例如:
huge_df = ddf.read_csv("s3://folder/**/*.part")
merged_df = huge_df.join(small_df, how='inner', ...)
merged_df = merged_df.compute()
...other processing...
大部分时间都花在从 S3 下载文件上。我的问题是:有没有办法使用 Dask 将 S3 中的文件缓存在磁盘上,以便在随后调用此代码时,我可以从磁盘读取数据帧文件,而不是从 S3 读取?我想我不能只是打电话huge_df.to_csv(./local-dir/)
,因为这会带入huge_df
记忆中,这是行不通的。
我确信有一种方法可以结合使用其他工具和标准 Python IO 实用程序来做到这一点,但我想看看是否有办法使用 Dask 从 S3 下载文件内容并将它们存储在本地磁盘上没有把一切都带入记忆。