我已经在 Ubuntu 的 miniconda 环境中通过conda install pyspark
. 到目前为止一切正常:我可以运行作业,spark-submit
并且可以检查正在运行的作业localhost:4040
。但我找不到start-history-server.sh
,我需要查看已完成的工作。
应该是在, spark的安装目录在{spark}/sbin
哪里。{spark}
我不确定通过 conda 安装 spark 时应该在哪里,但我已经搜索了整个 miniconda 目录,但似乎无法找到start-history-server.sh
. 对于它的价值,这适用于 python 3.7 和 2.7 环境。
我的问题是:是否start-history-server.sh
包含在 pyspark 的 conda 安装中?如果是,在哪里?如果不是,那么在事后评估火花工作的推荐替代方法是什么?