我正在尝试计算双时态数据集的移动平均值。数据集由数据日期和生效日期(数据可用的日期)组成。该日期的数据将来可能会多次重述(数据日期相同但生效日期不同)。我需要使用对正在计算的行的生效日期有效的数据来计算过去 4 个季度的移动平均值。
数据集看起来像这样
ID | 数据日期 | 有效日期 | 价值 |
---|---|---|---|
1 | 2005-03-31 | 2005-04-15 | 10 |
1 | 2005-03-31 | 2005-05-30 | 11 |
1 | 2005-06-30 | 2005-07-15 | 9 |
1 | 2005-06-30 | 2005-08-20 | 9.5 |
1 | 2005-06-30 | 2005-10-15 | 9.6 |
1 | 2005-09-30 | 2005-10-15 | 10.5 |
1 | 2005-09-30 | 2005-11-10 | 11 |
1 | 2005-09-30 | 2006-02-20 | 10.75 |
1 | 2005-12-31 | 2006-02-13 | 12 |
1 | 2005-12-31 | 2006-02-20 | 11.6 |
1 | 2005-12-31 | 2006-05-10 | 11 |
1 | 2006-03-31 | 2006-04-20 | 8 |
1 | 2006-03-31 | 2006-05-10 | 8.25 |
结果应该是
ID | 数据日期 | 有效日期 | 价值 | 平均 | |
---|---|---|---|---|---|
0 | 1 | 2005-03-31 | 2005-04-15 | 10 | 10 |
1 | 1 | 2005-03-31 | 2005-05-30 | 11 | 11 |
2 | 1 | 2005-06-30 | 2005-07-15 | 9 | 10 |
3 | 1 | 2005-06-30 | 2005-08-20 | 9.5 | 10.25 |
4 | 1 | 2005-06-30 | 2005-10-15 | 9.6 | 10.30 |
5 | 1 | 2005-09-30 | 2005-10-15 | 10.5 | 10.37 |
6 | 1 | 2005-09-30 | 2005-11-10 | 11 | 10.53 |
7 | 1 | 2005-09-30 | 2006-02-20 | 10.75 | 10.45 |
8 | 1 | 2005-12-31 | 2006-02-13 | 12 | 10.9 |
9 | 1 | 2005-12-31 | 2006-02-20 | 11.5 | 10.71 |
10 | 1 | 2005-12-31 | 2006-05-10 | 11 | 10.59 |
11 | 1 | 2006-03-31 | 2006-04-20 | 8 | 9.96 |
12 | 1 | 2006-03-31 | 2006-05-10 | 8.25 | 9.9 |
我正在使用熊猫在 python 中执行此操作。我这样做的方式是通过在 id 和前 4 个季度上加入数据框,并根据过去 4 个季度的 effdates 计算所有时期的新 effdates,然后我再次加入 id、datadate 和 effdate 并计算平均值。
keys["id"]
calc_df = df1.merge(df2, on=keys, how='left')
calc_df = calc_df.loc[
(calc_df["datadate_x"] >= calc_df["datadate_y"])
& (calc_df["datadate_y"] >= calc_df["datadate_x"] - pd.tseries.offsets.MonthEnd(n=9))
& (calc_df["effdate_x"] <= calc_df["thrudate_y"])
& (calc_df["thrudate_x"] >= calc_df["effdate_y"])
]
calc_df = calc_df.drop_duplicates().reset_index(drop=True)
grp_keys = keys + ["datadate_x"]
calc_df["effdate"] = calc_df[["effdate_x", "effdate_y"]].max(axis=1)
calc_df = calc_df.sort_values(grp_keys + ["effdate"]).drop_duplicates(
subset=grp_keys + ["effdate"], keep="first"
)
calc_df = calc_df['id', 'datadate_x', 'effdate', 'value']
calc_df = calc_df.merge(df1, on=["id"], how="left")
calc_df = calc_df.loc[
(calc_df["datadate_x"] >= calc_df["datadate"])
& (
calc_df["datadate"]
>= calc_df["datadate_x"] - pd.tseries.offsets.MonthEnd(n=9)
)
& (calc_df["effdate_x"] <= calc_df["thrudate_y"])
& (calc_df["thrudate_x"] >= calc_df["effdate_y"])
]
calc_df["MAvg"] = calc_df.groupby(["id", "datadate_x", "effdate_x"])["value"].transform(
lambda s: s.mean(skipna=False)
)
这很有效,但是当我在从 2000 年到最近一个季度(大约 500K 行)有大约 2000 个不同 id 和数据日期的完整数据集上运行它时它非常慢,我必须计算不同窗口的几个字段的移动平均值。所以我想看看是否有一种有效的方法来做到这一点。