1

上周我一直在试图弄清楚如何使用 sparlyr 让 spark 连接到我们本地集群上的 cassandra,但我碰壁了 - 任何帮助将不胜感激。我是唯一一个尝试使用 R/Rstudio 建立这种连接的人(其他人都在 NetBeans 和 Maven 上使用 Java),但我不确定我需要做什么才能完成这项工作。

我正在使用的堆栈是:Ubuntu 16.04(在 VM 中) sparklyr:0.5.3 Spark:2.0.0 Scala:2.11 Cassandra:3.7

相关的 config.yml 文件设置:

# cassandra settings
spark.cassandra.connection.host: <cluster_address>
spark.cassandra.auth.username: <user_name>
spark.cassandra.auth.password: <password>

sparklyr.defaultPackages:
- com.databricks:spark-csv_2.11:1.3.0
- com.datastax.spark:spark-cassandra-connector_2.11:2.0.0-M1
- com.datastax.cassandra:cassandra-driver-core:3.0.2

Sys.setnev 设置用于本地安装 Java 和 spark,配置设置为使用 yml 文件。Spark 连接使用以下命令启动:

sc <- spark_connect(master = "spark://<cluster_address>", config = spark_config(file = "config.yml"))

Spark 会话通过以下方式启动:

sparkSession <- sparklyr::invoke_static(sc, org.apache.spark.sql.SparkSession", "builder") %>% 
    sparklyr::invoke("config", "spark.cassandra.connection.host", "<cluster_address>") %>% 
    sparklyr::invoke("getOrCreate")

到这里为止一切似乎都很好,(sc 连接和 sparkSession),但现在尝试访问我知道存在的 cassandra 表(keyspace_1 中的 table_1):

cass_df <- invoke(sparkSession, "read") %>% 
invoke("format", "org.apache.spark.sql.cassandra") %>% 
invoke("option", "keyspace", "keyspace_1") %>% 
invoke("option", "table", "table_1") %>% 
invoke("load")

抛出以下错误:

Error: java.lang.IllegalArgumentException: Cannot build a cluster without contact points
at com.datastax.driver.core.Cluster.checkNotEmpty(Cluster.java:123)
at com.datastax.driver.core.Cluster.(Cluster.java:116)
at com.datastax.driver.core.Cluster.buildFrom(Cluster.java:182)
at com.datastax.driver.core.Cluster$Builder.build(Cluster.java:1274)
at com.datastax.spark.connector.cql.DefaultConnectionFactory$.createCluster(CassandraConnectionFactory.scala:92) . . .
4

1 回答 1

0

终于解决了,感谢一个有用的提示。我使用 SPARK(带有端口号)来初始化 SparkSession 而不仅仅是集群地址(cassandra 所在的位置)。有用!谢谢@user7337271。

于 2017-01-27T10:51:30.513 回答