org.apache.hadoop.io.compress.**GzipCodec
,在这个类GzipOutputStream
中没有关闭,所以内存泄漏。
如何关闭
GzipOutputStream
?或者其他流也应该关闭?有没有好的选择?
spark版本是2.1.0,hadoop版本是2.8.4
sparkPairRdd.saveAsHadoopFile(outputPath, String.class, String.class, MultipleTextOutputFormat.class, GzipCodec.class);