我正在使用 Spark 1.4 进行研究并在内存设置方面苦苦挣扎。我的机器有 16GB 的内存,所以没有问题,因为我的文件大小只有 300MB。虽然,当我尝试使用函数将 Spark RDD 转换为 panda 数据帧时,toPandas()
我收到以下错误:
serialized results of 9 tasks (1096.9 MB) is bigger than spark.driver.maxResultSize (1024.0 MB)
我试图通过更改 spark-config 文件来解决此问题,但仍然出现相同的错误。我听说这是 spark 1.4 的问题,想知道你是否知道如何解决这个问题。任何帮助深表感谢。