使用 spark 作业执行 Cassandra 操作(批量执行 - 在两个表上插入和更新操作)时,我收到“所有主机尝试查询失败 - com.datastax.driver.core.OperationTimedOutException ”错误。
集群信息:
Cassandra 2.1.8.621 | DSE 4.7.1
spark-cassandra-connector-java_2.10 版本 - 1.2.0-rc1 | cassandra-driver-core 版本 - 2.1.7
Spark 1.2.1 | Hadoop 2.7.1 => 3 个节点
Cassandra 2.1.8 => 5 个节点
每个节点具有 28 GB 内存和 24 个内核
在寻找它的解决方案时,我遇到了一些讨论,其中说你不应该使用 BATCHES。虽然我想找到这个错误的根本原因。另外,如何以及从哪里设置/获取 "SocketOptions.setReadTimeout",因为这个超时限制必须大于 Cassandra 请求超时按照标准指南并避免可能的错误.
是 request_timeout_in_ms 和 SocketOptions。setReadTimeout 一样吗?谁能帮我解决这个问题?