我正在尝试获取服务的状态,即在我的本地 vm 上运行的 Spark(独立)服务上运行的 spark-master 和 spark-slaves
但是运行sudo service spark-master status
不起作用。
任何人都可以提供一些关于如何检查 Spark 服务状态的提示吗?
我正在尝试获取服务的状态,即在我的本地 vm 上运行的 Spark(独立)服务上运行的 spark-master 和 spark-slaves
但是运行sudo service spark-master status
不起作用。
任何人都可以提供一些关于如何检查 Spark 服务状态的提示吗?
我jps -lm
用作工具来获取盒子上任何 JVM 的状态,包括 Spark 的。有关命令行选项旁边的更多详细信息,请参阅jps 文档。-lm
但是,如果您想过滤掉真正属于 Spark 的 JVM 进程,您应该通过管道传输它并使用特定于操作系统的工具,例如grep
.
➜ spark git:(master) ✗ jps -lm
999 org.apache.spark.deploy.master.Master --ip japila.local --port 7077 --webui-port 8080
397
669 org.jetbrains.idea.maven.server.RemoteMavenServer
1198 sun.tools.jps.Jps -lm
➜ spark git:(master) ✗ jps -lm | grep -i spark
999 org.apache.spark.deploy.master.Master --ip japila.local --port 7077 --webui-port 8080
您也可以查看./sbin/spark-daemon.sh status
,但我对该工具的有限了解并不能使其成为推荐的工具。
当您使用 下的脚本启动 Spark Standalone 时,PID默认sbin
存储在目录中。可以读取它们并为您执行“样板”,即状态为 PID。/tmp
./sbin/spark-daemon.sh status
➜ spark git:(master) ✗ jps -lm | grep -i spark
999 org.apache.spark.deploy.master.Master --ip japila.local --port 7077 --webui-port 8080
➜ spark git:(master) ✗ ls /tmp/spark-*.pid
/tmp/spark-jacek-org.apache.spark.deploy.master.Master-1.pid
➜ spark git:(master) ✗ ./sbin/spark-daemon.sh status org.apache.spark.deploy.master.Master 1
org.apache.spark.deploy.master.Master is running.
ps -ef | grep spark
适用于所有 pid 的详细信息