我想使用 spark 执行更新和插入操作请找到现有表的图像参考
在这里,我正在更新 id :101 location 和 inserttime 并插入另外 2 条记录:
并使用模式覆盖写入目标
df.write.format("jdbc")
.option("url", "jdbc:mysql://localhost/test")
.option("driver","com.mysql.jdbc.Driver")
.option("dbtable","temptgtUpdate")
.option("user", "root")
.option("password", "root")
.option("truncate","true")
.mode("overwrite")
.save()
执行上述命令后,我的数据已损坏,已插入 db 表
数据框中的数据
您能否让我知道您的观察和解决方案



