我试过这个,但它没有用。据我了解,Spark
不支持.dat
文件格式。我不想将文件写为.csv
or .json
,然后稍后通过 shell 脚本进行转换。
a.write.format("dat").save(outputPath)
我试过这个,但它没有用。据我了解,Spark
不支持.dat
文件格式。我不想将文件写为.csv
or .json
,然后稍后通过 shell 脚本进行转换。
a.write.format("dat").save(outputPath)
Spark 格式函数不接受“dat”作为参数。您可以在文档中获得更多信息:https ://spark.apache.org/docs/latest/sql-data-sources-load-save-functions.html
抱歉,您可以做的最简单的事情是创建csv
并将其转换为dat
以后。