我正在 9 个节点中运行作业。
他们都将向文件中写入一些信息,执行如下简单的写入操作:
dfLogging.coalesce(1).write.format('delta').mode('append').save('/dbfs/' + loggingLocation)
但是我收到了这个例外:
py4j.protocol.Py4JJavaError:调用 o106.save 时出错。:java.util.concurrent.ExecutionException:org.apache.spark.SparkException:作业因阶段失败而中止:阶段14.0中的任务1失败1次,最近失败:阶段14.0中丢失任务1.0(TID 259,本地主机,执行程序驱动程序):org.apache.hadoop.fs.ChecksumException:校验和错误:文件:/dbfs/delta/Logging/_delta_log/00000000000000000063.json at 0 exp:1179219224 得到:-1020415797
在我看来,由于并发性,spark 以某种方式失败并产生校验和错误。
是否有任何已知的情况可能导致它?