myDF.write.format("orc").partitionBy("creation_date").save("/user/xyz/data3")
当我尝试基于 HDFS 目录 /user/xyz/data3 中 myDF 数据帧的“creation_date”列创建 ORC 格式的分区数据文件时,我收到以下错误:java.io.IOException:无法获取 67108864 字节的内存。
我已经尝试了所有在互联网上发布的与此问题相关的可能场景,但没有一个对我有用。我尝试过的一些是:sqlContext.setConf("spark.sql.tungsten.enabled", "false")
sqlContext.setConf("spark.buffer.pageSize", "16m")
请让我知道如何解决此问题。
此问题出现在 Spark 1.5.1 中。