我正在使用 spark JDBC write 将数据从配置单元加载到 teradata 视图。我正在使用 200 个 vcore 并将数据划分为 10000 个分区。
Spark 任务失败并出现以下错误,导致阶段失败。有时应用程序成功完成但有一些重复记录
由:java.sql.SQLException: [Teradata Database] [TeraJDBC 16.20.00.10] [Error 2631] [SQLState 40001] Transaction ABORTed 由于死锁。
以下是我使用的代码:
val df = spark.sql("select * from hive table").distinct.repartition(10000).write.mode(overwrite) .option("truncate", Truncate).jdbc(url,dbTable, dproperties)
Teradata 视图是使用“AS LOCKING ROW FOR ACCESS”创建的。该表还有一个唯一的 PI。
我无法弄清楚为什么某些 spark 任务因死锁错误而失败,有没有办法可以阻止我的整个 spark 应用程序因任务失败而失败。