假设您有 5 个具有不同列数的 PySpark 数据帧。例如,假设:
a1 = [a,b,c,d,f,g,1,2,3]
a2 [a,b,c,d,f,g,4,5,6,7]
a3 = [a,b,c,d,f,g,8,9,10,11,12]
a4 [a,b,c,d,f,g,13,14]
a5 [a,b,c,d,f,g,15]
括号内的所有内容都是 data frame 的列名ai。什么是按列合并所有这些数据帧的简单方法(添加额外的列)。
假设您有 5 个具有不同列数的 PySpark 数据帧。例如,假设:
a1 = [a,b,c,d,f,g,1,2,3]
a2 [a,b,c,d,f,g,4,5,6,7]
a3 = [a,b,c,d,f,g,8,9,10,11,12]
a4 [a,b,c,d,f,g,13,14]
a5 [a,b,c,d,f,g,15]
括号内的所有内容都是 data frame 的列名ai。什么是按列合并所有这些数据帧的简单方法(添加额外的列)。