1

我在 Windows 11 中安装了 Apache Spark 3.2 和 Hadoop 3。我还安装了 Python 3.8。

当我试图在我的 cmd 上调用 Pyspark 时。我收到了这条消息:

缺少 Python 可执行文件“python3”,对于 SPARK_HOME 环境变量,默认为“C:\Spark\bin..”。请安装 Python 或在 PYSPARK_DRIVER_PYTHON 或 PYSPARK_PYTHON 环境变量中指定正确的 Python 可执行文件以安全地检测 SPARK_HOME。

我应该怎么办?我可以只更改我的环境变量吗?如果是,会发生哪些变化?

4

0 回答 0