好吧,我正在使用 PySpark,并且我有一个 Spark 数据框,我使用它将数据插入到 mysql 表中。
url = "jdbc:mysql://hostname/myDB?user=xyz&password=pwd"
df.write.jdbc(url=url, table="myTable", mode="append")
我想通过列值和特定数字的总和来更新列值(不在主键中)。
我尝试过使用不同的模式(追加、覆盖)DataFrameWriter.jdbc() 函数。
我的问题是我们如何像ON DUPLICATE KEY UPDATE
在 mysql 中那样更新列值,同时将 pyspark 数据帧数据插入表中。