我在 EMR 集群中使用 Spark-Shell 运行我的代码。示例是:
[hadoop@<IP> ~]$ spark-shell --jars <JAR_LIST> --num-executors 72 --executor-cores 5 --executor-memory 16g --conf spark.default.parallelism=360
...
scala> val args = Array(...)
scala> org.abc.MainClass(args)
... start ... execution
现在我有类似的代码
dataFrame.foreachPartition { dataSetPartition => {
val localLogger: Logger = Logger.getLogger("PartitionLogger")
logger.info("INFO")
...
logger.error("TEST")
...
问题是我无法获取分区日志。我该如何分析。
版本:
Spark: 2.2.1
Scala: 2.11