我是 Spark 和 Cassandra 的新手。我面临一个主要的性能问题。我在 Spark 中每 5 秒从 Kafka 流式传输数据,然后使用 JRI 对 R 语言中的数据执行分析,最后将数据保存到 Cassandra 各自的列族。将数据保存到 Cassandra 的持续时间(以毫秒为单位)随着输入请求数量的增加而迅速增加 [每个请求为 200KB]。
火花代码:
sessionData.foreachRDD(new Function<JavaRDD<NormalizedData>, Void>() {
public Void call(JavaRDD<NormalizedData> rdd) {
System.out.println("step-3 " + System.currentTimeMillis());
javaFunctions(rdd).writerBuilder("keyspace",normalized_data",mapToRow(NormalizedData.class)).saveToCassandra();
System.out.println("step-4 " + System.currentTimeMillis());}}