我df
在 pySpark 中有一些数据框,它来自于调用:
df = spark.sql("select A, B from org_table")
df = df.stuffIdo
我想org_table
在我的脚本末尾覆盖。由于禁止覆盖输入表,我检查了我的数据:
sparkContext.setCheckpointDir("hdfs:/directoryXYZ/PrePro_temp")
checkpointed = df.checkpoint(eager=True)
血统现在应该被打破,我也可以用checkpointed.show()
(作品)查看我的检查点数据。什么不起作用是写表:
checkpointed.write.format('parquet')\
.option("checkpointLocation", "hdfs:/directoryXYZ/PrePro_temp")\
.mode('overwrite').saveAsTable('org_table')
这会导致错误:
引起:java.io.FileNotFoundException:文件不存在:hdfs://org_table_path/org_table/part-00081-4e9d12ea-be6a-4a01-8bcf-1e73658a54dd-c000.snappy.parquet
我已经尝试了几件事,比如在写作之前刷新 org_table 等,但我在这里感到困惑。我该如何解决这个错误?