面对一个奇怪的问题,尝试spark-sql(Spark2)
使用oozie action
但执行的行为很奇怪,有时它执行得很好,但有时它会Running
永远处于“”状态,在检查日志时遇到了以下问题。
WARN org.apache.spark.scheduler.cluster.YarnClusterScheduler` - Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
奇怪的是我们已经提供了足够的资源,从spark环境变量和集群资源下也可以看出这一点(集群有足够的核心和RAM)。
<spark-opts>--executor-memory 10G --num-executors 7 --executor-cores 3 --driver-memory 8G --driver-cores 2</spark-opts>
使用相同的配置,有时它也可以正常执行。我们错过了什么吗?