0

我运行标准 hbase 类来计算 BigTable 表中的行数 (RowCounter)。使用 Google Console 中的 DataProc gui。它工作得很好,但几周后我尝试运行类似的 jar,但由于难以解释的原因,工作失败了。这看起来不像是连接参数问题,因为如果我使用不存在的 Hbase 表名,它会理解这一点。

1.1.2 和 1.0.1.1 Hbase 客户端的结果相同。1.0.1.1 来自示例。我发现由 bdutils 设置的集群使用 1.1.2 版本。

6/02/08 14:35:34 INFO mapreduce.Job:  map 100% reduce 0%
16/02/08 14:35:34 INFO mapreduce.Job: Task Id : attempt_1454940934781_0001_m_000000_0, Status : FAILED
Error: java.io.IOException: Cannot create a record reader because of a previous error. Please look at the previous logs lines from the task's full log for more details.
    at org.apache.hadoop.hbase.mapreduce.TableInputFormatBase.createRecordReader(TableInputFormatBase.java:174)
    at org.apache.hadoop.mapred.MapTask$NewTrackingRecordReader.<init>(MapTask.java:515)
    at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:758)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:341)
    at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:164)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:422)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)
    at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:158)
Caused by: java.lang.IllegalStateException: The input format instance has not been properly initialized. Ensure you call initializeTable either in your constructor or initialize method
    at org.apache.hadoop.hbase.mapreduce.TableInputFormatBase.getTable(TableInputFormatBase.java:585)
    at org.apache.hadoop.hbase.mapreduce.TableInputFormatBase.createRecordReader(TableInputFormatBase.java:169)
    ... 8 more
4

1 回答 1

3

之前创建的 Dataproc 集群现在启用了每周 JVM 自动更新。其中一项更新破坏了与 Bigtable 客户端库使用的 ALPN-boot jar 的兼容性。

已完成部署,将更新 JVM 和 ALPN jar 的默认版本以再次兼容。为了使用固定图像,您需要启动一个新集群。

如果您需要执行就地修复,您可以更新集群中所有节点上的 ALPN-boot.jar 副本,该副本位于 /usr/local/share/google/alpn 下。有关版本兼容性,请参阅此表http://www.eclipse.org/jetty/documentation/current/alpn-chapter.html#alpn-versions

于 2016-02-19T22:08:00.297 回答