我已经Hadoop 3.0.0
安装了。我现在应该从此页面安装Apache Spark的with-hadoop或without-hadoop版本吗?
我正在按照本指南开始使用 Apache Spark。
它说
从此链接下载最新版本的 Apache Spark(根据您的 Hadoop 版本预构建):...
但我很困惑。如果我已经在我的机器上运行了一个 Hadoop 实例,然后我下载、安装并运行 Apache-Spark-WITH-Hadoop,它不会启动另一个额外的 Hadoop 实例吗?