我已经安装了 Spark-1.4.0。我还安装了它的 R 包 SparkR,我可以通过 Spark-shell 和 RStudio 使用它,但是,有一个区别我无法解决。
启动 SparkR-shell 时
./bin/sparkR --master local[7] --packages com.databricks:spark-csv_2.10:1.0.3
我可以按如下方式读取 .csv 文件
flights <- read.df(sqlContext, "data/nycflights13.csv", "com.databricks.spark.csv", header="true")
不幸的是,当我通过 RStudio 启动 SparkR(正确设置我的 SPARK_HOME)时,我收到以下错误消息:
15/06/16 16:18:58 ERROR RBackendHandler: load on 1 failed
Caused by: java.lang.RuntimeException: Failed to load class for data source: com.databricks.spark.csv
我知道我应该以某种方式加载 com.databricks:spark-csv_2.10:1.0.3,但我不知道该怎么做。有人可以帮助我吗?