如果我通过在控制台中键入来启动 pyspark /usr/bin/pyspark
,则以下示例代码运行时不会出现任何错误。但是,如果我将它与 IPython 一起使用,则可以通过调用
$IPYTHON_OPTS="notebook" /usr/bin/pyspark # notebook
或通过
$IPYTHON=1 /usr/bin/pyspark
然后引发异常。
这是代码:
from pyspark import SparkContext,SparkConf
from pyspark import SQLContext
from pyspark.sql.types import *
# sc is a SparkContex object created when pyspark is invoked
sqc = SQLContext(sc)
这是错误消息:
---------------------------------------------------------------------------
AttributeError Traceback (most recent call last)
<ipython-input-1-f0bbbc9cdb50> in <module>()
3 from pyspark.sql.types import *
4 # sc is a SparkContex object created when pyspark is invoked
----> 5 sqc = SQLContext(sc)
/opt/cloudera/parcels/CDH-5.4.2-1.cdh5.4.2.p0.2/lib/spark/python/pyspark/sql/context.py in __init__(self, sparkContext, sqlContext)
91 """
92 self._sc = sparkContext
---> 93 self._jsc = self._sc._jsc
94 self._jvm = self._sc._jvm
95 self._scala_SQLContext = sqlContext
AttributeError: 'module' object has no attribute '_jsc'
是什么导致了这个错误,我该如何解决?
更新
事实证明,如果我为 Linux 使用 Anaconda python 发行版,则存在问题:
~$ ipython --version
4.0.0
~$ python --version
Python 2.7.10 :: Anaconda 2.3.0 (64-bit)
但是,如果我禁用 anaconda 发行版并使用系统附带的 Python,一切正常
$ ipython --version
4.0.0
$ python --version
Python 2.7.3
$ cat /etc/issue
Debian GNU/Linux 7 \n \l
所以,问题出在Anaconda,但仍然不知道问题是什么