我正在使用如下代码将文件写入 S3 存储桶:
df.write.format('csv').option('header','true').mode("append").save("s3://filepath")
这会根据需要作为多个文件输出到 S3 存储桶,但每个部分都有一个长文件名,例如:
部分-00019-tid-5505901395380134908-d8fa632e-bae4-4c7b-9f29-c34e9a344680-236-1-c000.csv
有没有办法将其写为自定义文件名,最好是在 PySpark 写入函数中?如:
部分 00019-my-output.csv