我sparklyr
用来运行一些分析,但我也有兴趣SQL
使用DBI
.
我能够运行以下查询
query <- "SELECT col1, FROM mydata WHERE some_condition"
dataframe <- dbGetQuery(spark_connection, query)
但这会将数据返回到 R 中(在数据框中)。
我想要的是将数据保留在 Spark 中并将其存储在另一个Spark Dataframe中,以便与sparklyr
.
有任何想法吗?