我正在使用Spark 1.3.0 并想使用Pyspark连接Cassandra。
>pyspark --packages com.datastax.spark:spark-cassandra-connector_2.10:1.3.0-M2
它显示成功下载依赖 jar 并进入 Pyspark 终端,但我无法进行导入。
>>> from pyspark_cassandra import CassandraSparkContext, Row <br/>
Tracstrong texteback (most recent call last):
File "<stdin>", line 1, in <module>
ImportError: No module named pyspark_cassandra
我也试过
sudo -u hdfs pyspark --packages TargetHolding:pyspark-cassandra:0.1.5
以及使用--jars option
. 还是一样。使用 scala 的 spark-shell 也同样适用。我是 python 新手。我错过了什么吗?