0

我在 EMR 集群中使用 Spark-Shell 运行我的代码。示例是:

[hadoop@<IP> ~]$ spark-shell --jars <JAR_LIST>  --num-executors 72 --executor-cores 5 --executor-memory 16g --conf spark.default.parallelism=360 
...
scala> val args = Array(...)
scala> org.abc.MainClass(args)
... start ... execution

现在我有类似的代码

dataFrame.foreachPartition { dataSetPartition => {
  val localLogger: Logger = Logger.getLogger("PartitionLogger")
  logger.info("INFO")
  ...
  logger.error("TEST")
  ...

问题是我无法获取分区日志。我该如何分析。

版本:

Spark: 2.2.1
Scala: 2.11
4

1 回答 1

0

查看 Executors 选项卡下的 spark UI,您将看到一个包含每个 exectuor 的 stderr 和 stdout 的日志列。

于 2019-08-12T16:30:51.343 回答