我在一台Windows机器上。运行使用 databricks cli 设置的 pyspark。
收到此错误:
Python in worker has different version 3.8 than that in driver 3.9, PySpark cannot run with different minor versions. Please check environment variables PYSPARK_PYTHON and PYSPARK_DRIVER_PYTHON are correctly set.
它说 pyspark 驱动程序是 3.9,但我的 PYSPARK_DRIVER_PYTHON 指向的是 3.8 版本的 python。
为什么我的 pyspark 驱动程序仍在运行 3.9?
谢谢你。