0

我面临一个关于通过 pyspark 从 sql server2005 上的数据库支持中获取数据的问题。我有一个有 5 列的表:

- index -> int
- category -> nvarchar
- date_modified -> datetime format YYYY-MM-DD HH:MM:SS:SSS
- category2 -> nvarchar
- category3 -> nvarchar

当我尝试使用此命令导入数据时

conn = spark.read.format("jdbc").option("url", "jdbc:sqlserver://IP:PORT;database=dbname;user=xxxxxxxx;password=xxxxxxxxx").option("driver","com.microsoft.sqlserver.jdbc.SQLServerDriver").option("com.microsoft.sqlserver.jdbc.sendTimeAsDatetime", "false")
conn = conn.option("dbtable", "(SELECT [index],[category],[date_modified],[category2],[category3] FROM table) AS result")
df = conn.load()

我收到一个 SQL 异常: java.sqlSQLExcedption: Unrecognized SQL type -151

如果我将列转换为字符串,我可以正确获取数据,但我想按原样导入它,因为我有一个检查日期模式并检测差异的过程。

奇怪的是,在另一个具有相同结构和相同表但在 SQL Server 2016 上的数据库上完全相同的查询运行良好。我正在使用 Spark 2.3 版

有人可以帮我解决这个问题吗?

4

1 回答 1

0

问题解决了。这是由于一个论点在我的整个桌子上做一个 select * 。通过移动这个参数,我能够正确提取数据。计划升级数据库版本。

于 2021-02-22T15:10:52.657 回答