默认
spark-shell --conf spark.hadoop.metastore.catalog.default=hive
val df:Dataframe = ...
df.write.saveAsTable("db.table")
失败,因为它尝试写入内部/托管/事务表(请参阅如何在不使用 HDP 3.1 中的仓库连接器的情况下将表从 spark 写入配置单元)。
如何告诉 spark 不创建托管表,而是创建外部表?
默认
spark-shell --conf spark.hadoop.metastore.catalog.default=hive
val df:Dataframe = ...
df.write.saveAsTable("db.table")
失败,因为它尝试写入内部/托管/事务表(请参阅如何在不使用 HDP 3.1 中的仓库连接器的情况下将表从 spark 写入配置单元)。
如何告诉 spark 不创建托管表,而是创建外部表?