0

这是错误的链接:http: //i.imgur.com/N9ccVsM.jpg

我正在尝试独立安装 spark 工作,但出现此错误。我将环境变量中的 JAVA_HOME 设置为“C:\Program Files (x86)\Java\jre1.8.0_31”。

在我输入 pyspark 后,ipthon notebook 应该会在新标签页中打开,但它不会。

似乎找不到带有“笔记本”的东西,但不确定

谢谢马特

4

3 回答 3

0

花了 2.5 小时后,问题被设置为 IPYTHON_OPTS="notebook" 应该是 IPYTHON_OPTS=notebook。没有引号。

于 2015-02-01T18:46:56.000 回答
0

我也尝试过这种方法;它行不通。我已经在 Windows 10 和 7 上成功使用了以下内容,使用 Enthought Canopy 作为我的 IDE 和 IPython 笔记本。

步骤 1. 检查 Python 和 Spark 的环境变量。您可以直接从命令提示符启动 pyspark 吗?

步骤 2. 启动 Python(或 IPython)

步骤 3. 使用(并适应您的机器)以下代码:

import os

import sys

spark_home = os.environ.get('SPARK_HOME', None)

if not spark_home:

raise ValueError('SPARK_HOME environment variable is not set')

sys.path.insert(0, os.path.join(spark_home, 'python'))

sys.path.insert(0, os.path.join(spark_home, 'C:/spark-1.6.0-bin-hadoop2.6/python/lib/py4j-0.9-src.zip'))

execfile(os.path.join(spark_home, 'python/pyspark/shell.py'))

如果您按照我的步骤操作,您应该启动并运行 Spark。

pyspark

于 2016-02-12T02:51:17.537 回答
0

由于您一直在 Window 中执行,因此您需要先设置 IPYTHON_OPTS 变量,然后执行命令以启动 pyspark

  1. 设置 IPYTHON_OPTS=笔记本

  2. ./bin/pyspark

于 2015-11-20T10:50:28.720 回答