我正在尝试通过 JDBC 编写:
df.write.jdbc("jdbc:postgresql://123.123.123.123:5432/myDatabase", "myTable", props)
Spark 文档解释说,如果在客户端模式(Dataproc 运行的模式)下运行,则配置选项不能spark.driver.extraClassPath
用于添加 JDBC 驱动程序 JAR,因为 JVM 已经启动。
我尝试在 Dataproc 的提交命令中添加 JAR 路径:
gcloud beta dataproc jobs submit spark ...
--jars file:///home/bryan/org.postgresql.postgresql-9.4-1203-jdbc41.jar
我还添加了加载驱动程序的命令:
Class.forName("org.postgresql.Driver")
但我仍然得到错误:
java.sql.SQLException: No suitable driver found for jdbc:postgresql://123.123.123.123:5432/myDatabase