1

你知道以下行是否可以处理 jdbc 池连接:

df.write
  .mode("append")
  .jdbc(url, table, prop)

你有什么主意吗?谢谢

4

1 回答 1

2

我不这么认为

spark.read.jdbc请求 Spark SQL 创建一个JDBCRelation。最终buildScan被执行,然后调用JDBCRDD.scanTable导致JdbcUtils.createConnectionFactory(options) for JDBCRDD

这样,您会看到driver.connect(options.url, options.asConnectionProperties),除非driver处理连接池,否则 Spark SQL 不会这样做。

(刚刚注意到你问了另一个问题)

df.write.jdbc类似。它JDBCRelation再次导致使用相同的RDD。

于 2017-07-19T17:57:42.373 回答