7

我的客户端正在使用org.apache.hbase:hbase-client:2.1.0"并且服务器正在运行 1.2.0-cdh5.11.11.2.0-cdh5.11.0在另一个测试集群中)。

我的客户端非常简单,它Connection在启动时实例化一个类(这个类 - 正如 Apache 推荐的那样 - 因为它很重且线程安全,所以跨线程共享)。然后对于每个请求,它都会创建一个Table类并执行一个.exists(new Get(rowKey))操作。

所以像这样:

Connection conn = ConnectionFactory.createConnection(hbaseConfig);

final Table table = conn.getTable(tableName);
return table.exists(new Get(context.getKey()));

大多数情况下,到 HBase 和返回的请求延迟最多为 40 毫秒。通常它在 10 毫秒左右完成。

但是,我们注意到偶尔的请求大约需要 5000 毫秒(5 秒) - 但仍然成功完成!

偶尔我的意思是每分钟大约 1 个请求(每分钟总共 600 个请求,所以速度很小)。但它是稳定的。

这些几乎正好在 5 秒左右(+/- 100-200 毫秒)。这是奇怪的部分。这不是一个尖峰。

起初我怀疑这是客户端的错误配置,我需要设置更严格的超时,所以我设置了以下内容:

hbaseConfig.set(HConstants.HBASE_CLIENT_RETRIES_NUMBER, 1);
hbaseConfig.set(HConstants.HBASE_CLIENT_PAUSE, "50");
hbaseConfig.set(HConstants.HBASE_CLIENT_OPERATION_TIMEOUT, "2000");
hbaseConfig.set(HConstants.HBASE_RPC_TIMEOUT_KEY, "1500");
hbaseConfig.set(HConstants.HBASE_RPC_SHORTOPERATION_TIMEOUT_KEY, "2000");
hbaseConfig.set(HConstants.HBASE_CLIENT_SCANNER_TIMEOUT_PERIOD, "1500");
hbaseConfig.set(HConstants.ZOOKEEPER_RECOVERABLE_WAITTIME, "2000");
hbaseConfig.set(HConstants.ZK_SESSION_TIMEOUT, "2000");
hbaseConfig.set("zookeeper.recovery.retry", "1");
hbaseConfig.set("zookeeper.recovery.retry.intervalmill","200");
hbaseConfig.set("hbase.ipc.client.socket.timeout.connect", "2000");
hbaseConfig.set("hbase.ipc.client.socket.timeout.read", "2000");
hbaseConfig.set("hbase.ipc.client.socket.timeout.write", "2000");

换句话说,5000 毫秒远远超过了全局超时(如 中设置的HConstants.HBASE_CLIENT_OPERATION_TIMEOUT)。

然而,我的请求需要大约 5 秒才能完成 - 并且成功地完成了。

除了这些超时,我从 using 更改AsyncConnectionConnection(无论如何都不需要它是异步的)并且正在考虑只进行GET调用而不是exists.

但在这一点上,我被难住了。我没有看到任何财产以及 5s 的来源。它甚至不是超时,它实际上成功了!

有没有人遇到过这个?有没有办法让 hbase-client 发出指标?服务器端指标显示延迟没有增加(扫描指标)。

4

1 回答 1

5

对我们来说,线程转储显示了使用 IPv6 实现执行 DNS 解析所花费的时间,并且还发现了一些关于本地库中 5 秒延迟的问题。

    hconnection-0x6fc1d215-shared--pool1-t95" 
   java.lang.Thread.State: RUNNABLE
        at java.net.Inet6AddressImpl.lookupAllHostAddr(Native Method)
        at java.net.InetAddress$2.lookupAllHostAddr(InetAddress.java:929)
        at java.net.InetAddress.getAddressesFromNameService(InetAddress.java:1324)
        at java.net.InetAddress.getAllByName0(InetAddress.java:1277)
        at java.net.InetAddress.getAllByName(InetAddress.java:1193)
        at java.net.InetAddress.getAllByName(InetAddress.java:1127)
        at java.net.InetAddress.getByName(InetAddress.java:1077)
        at java.net.InetSocketAddress.<init>(InetSocketAddress.java:220)
        at org.apache.hadoop.hbase.client.ConnectionManager$HConnectionImplementation.getStubKey(ConnectionManager.java:1802)
        at org.apache.hadoop.hbase.client.ConnectionManager$HConnectionImplementation.getClient(ConnectionManager.java:1772)
        at org.apache.hadoop.hbase.client.ScannerCallable.prepare(ScannerCallable.java:163)
        at org.apache.hadoop.hbase.client.ScannerCallableWithReplicas$RetryingRPC.prepare(ScannerCallableWithReplicas.java:409)
        at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithRetries(RpcRetryingCaller.java:134)
        at org.apache.hadoop.hbase.client.ResultBoundedCompletionService$QueueingFuture.run(ResultBoundedCompletionService.java:80)
        at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
        at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
        at java.lang.Thread.run(Thread.java:748)"Timer-47" 

https://github.com/netty/netty/issues/6454

强制-Djava.net.preferIPv4Stack=true使用 IPv4 堆栈似乎已经为我们解决了这个问题。我们不再看到 5 秒的延迟(手指交叉)

于 2019-07-03T18:11:02.557 回答