我刚刚开始使用的 Spark 集群出现了非常奇怪的行为。
日志记录的正常行为是当一个人运行时spark-submit
会看到如下日志消息:
INFO 2016-11-04 13:14:10,671 org.apache.spark.executor.Executor: Finished task 227.0 in stage 4.0 (TID 3168). 1992 bytes result sent to driver
这些通常会很快填满控制台,尤其是当应用程序使用大量分区时。
但是在运行 spark-submit 后,我没有看到任何来自 Spark 的常见日志消息。也许大约 5 行。相反,所有正常的日志消息都在 Spark UI 的驱动程序标准输出中。
所以问题是什么设置和哪里可能告诉 Spark 不要将这些日志条目返回给驱动程序?
这是相当令人沮丧的,因为当日志消息被拆分到多个位置时,很难调试应用程序。通常我只是在运行 spark-submit 后观看日志涌入我的屏幕,然后我就可以感觉到它在做什么。现在我无法获得那种感觉,因为我必须在事件发生后查看日志。