我能够使用 scala 创建 databricks 增量表,并能够对其执行追加和覆盖操作。
有什么方法可以使用 scala 而不是通过 Databricks 运行时执行 DELETE 和 UPDATE 操作。
val target = Seq(
Data("a", "0"),
Data("b", "1"),
Data("c", "2"),
Data("d", "3")
).toDF().write.format("delta").mode("overwrite").saveAsTable("target")
val DF1 = spark.table("target")
DF1.show()
val NewInserts = Seq(
Data("a", "0"),
Data("b", "1"),
Data("c", "2"),
Data("d", "3")
).toDF().write.format("delta").mode("append").saveAsTable("target")
val DF2 = spark.table("target")
DF2.show()