这是错误的链接:http: //i.imgur.com/N9ccVsM.jpg
我正在尝试独立安装 spark 工作,但出现此错误。我将环境变量中的 JAVA_HOME 设置为“C:\Program Files (x86)\Java\jre1.8.0_31”。
在我输入 pyspark 后,ipthon notebook 应该会在新标签页中打开,但它不会。
似乎找不到带有“笔记本”的东西,但不确定
谢谢马特
这是错误的链接:http: //i.imgur.com/N9ccVsM.jpg
我正在尝试独立安装 spark 工作,但出现此错误。我将环境变量中的 JAVA_HOME 设置为“C:\Program Files (x86)\Java\jre1.8.0_31”。
在我输入 pyspark 后,ipthon notebook 应该会在新标签页中打开,但它不会。
似乎找不到带有“笔记本”的东西,但不确定
谢谢马特
花了 2.5 小时后,问题被设置为 IPYTHON_OPTS="notebook" 应该是 IPYTHON_OPTS=notebook。没有引号。
我也尝试过这种方法;它行不通。我已经在 Windows 10 和 7 上成功使用了以下内容,使用 Enthought Canopy 作为我的 IDE 和 IPython 笔记本。
步骤 1. 检查 Python 和 Spark 的环境变量。您可以直接从命令提示符启动 pyspark 吗?
步骤 2. 启动 Python(或 IPython)
步骤 3. 使用(并适应您的机器)以下代码:
import os
import sys
spark_home = os.environ.get('SPARK_HOME', None)
if not spark_home:
raise ValueError('SPARK_HOME environment variable is not set')
sys.path.insert(0, os.path.join(spark_home, 'python'))
sys.path.insert(0, os.path.join(spark_home, 'C:/spark-1.6.0-bin-hadoop2.6/python/lib/py4j-0.9-src.zip'))
execfile(os.path.join(spark_home, 'python/pyspark/shell.py'))
如果您按照我的步骤操作,您应该启动并运行 Spark。
由于您一直在 Window 中执行,因此您需要先设置 IPYTHON_OPTS 变量,然后执行命令以启动 pyspark
设置 IPYTHON_OPTS=笔记本
./bin/pyspark