我正在尝试在大型数据集上计算过去 n 天(n = 30)的滚动平均值。在 Pandas 中,我会使用以下命令:
temp = chunk.groupby('id_code').apply(lambda x: x.set_index('entry_time_flat').resample('1D').first())
dd = temp.groupby(level=0)['duration'
].apply(lambda x: x.shift().rolling(min_periods = 1,window = n_days).mean()
).reset_index(name = "avg_delay_"+ str(n_days) + "_days")
chunk = pd.merge(chunk, dd, on=['entry_time_flat', 'id_code'], how='left'
).dropna(subset = ["avg_delay_"+ str(n_days) + "_days"])
基本上,函数按“id 代码”分组,并且在“entry_time_flat”(日期时间对象)的最后 n 天,计算特征“持续时间”的平均值。
但是,为了保持代码高效,最好在 Dask 数据帧上重现此函数,而不将其转换为 Pandas DF。
如果我在 Dask DF 上运行上述代码,则会引发以下错误:
TypeError: __init__() got an unexpected keyword argument 'level'
最终,在 Dask 数据帧的最后 n 天内,我如何计算“持续时间”列的平均值?