我有一个 Spark 2.0.2 结构化流作业连接到 Apache Kafka 数据流作为源。这项工作从 Kafka 中获取 Twitter 数据 (JSON),并使用 CoreNLP 对数据进行注释,例如情绪、词性标记等。它与local[*]
master 配合得很好。但是,当我设置一个独立的 Spark 集群时,只有一个工作人员习惯于处理数据。我有两个具有相同能力的工人。
提交我缺少的工作时是否需要设置一些东西。我试过--num-executors
在我的spark-submit
命令中设置,但我没有运气。
提前感谢您指向正确方向的指针。