我正在尝试将数据从 pyspark 写入 postgresql DB。我使用了批处理大小 1000,pyspark 数据框中的总数据为 10000。但是在 postgresql 中进行的插入不是分批的。它正在一个一个地插入数据。以下代码用于写入数据库
df.write.
option('batchsize',1000).jdbc(
url=database_connection.url,
table=data_table,
mode="append",
properties=database_connection.properties
)
请提出一些解决方案。此选项适用于 POSTGRESQL Db 吗?