如何使用 运行 Spark-shell hive.exec.dynamic.partition.mode=nonstrict
?
我尝试(如建议here)
export SPARK_MAJOR_VERSION=2; spark-shell --conf "hive.exec.dynamic.partition.mode=nonstrict" --properties-file /opt/_myPath_/sparkShell.conf'
但警告“忽略非火花配置属性:hive.exec.dynamic.partition.mode=nonstrict”
PS:使用 Spark 版本 2.2.0.2.6.4.0-91,Scala 版本 2.11.8
笔记
需求在错误后到达df.write.mode("overwrite").insertInto("db.partitionedTable")
,
org.apache.spark.SparkException:动态分区严格模式需要至少一个静态分区列。要关闭此设置 hive.exec.dynamic.partition.mode=nonstrict