我运行标准的hbase类来计算BigTable表中的行(RowCounter)。使用Google Console中的DataProc gui。 它工作正常,但几个星期后,我试图运行类似的jar和 由于难以解释的原因,工作失败了。 这看起来不像连接参数问题,因为如果我使用 不存在的Hbase表名,它理解这一点。
1.1.2和1.0.1.1 Hbase客户端的结果相同。 1.0.1.1来自示例。 我发现群集使用的是1.1.2版本,由bdutils设置。
6/02/08 14:35:34 INFO mapreduce.Job: map 100% reduce 0%
16/02/08 14:35:34 INFO mapreduce.Job: Task Id : attempt_1454940934781_0001_m_000000_0, Status : FAILED
Error: java.io.IOException: Cannot create a record reader because of a previous error. Please look at the previous logs lines from the task's full log for more details.
at org.apache.hadoop.hbase.mapreduce.TableInputFormatBase.createRecordReader(TableInputFormatBase.java:174)
at org.apache.hadoop.mapred.MapTask$NewTrackingRecordReader.<init>(MapTask.java:515)
at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:758)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:341)
at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:164)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:422)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)
at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:158)
Caused by: java.lang.IllegalStateException: The input format instance has not been properly initialized. Ensure you call initializeTable either in your constructor or initialize method
at org.apache.hadoop.hbase.mapreduce.TableInputFormatBase.getTable(TableInputFormatBase.java:585)
at org.apache.hadoop.hbase.mapreduce.TableInputFormatBase.createRecordReader(TableInputFormatBase.java:169)
... 8 more
答案 0 :(得分:3)
在〜之前创建的Dataproc群集已启用每周JVM自动更新。其中一个更新破坏了与Bigtable客户端库使用的ALPN引导jar的兼容性。
已完成部署,将更新JVM和ALPN jar的默认版本以再次兼容。为了使用固定图像,您需要启动新的群集。
如果您需要执行就地修复,则可以在群集中位于/ usr / local / share / google / alpn下的所有节点上更新ALPN-boot.jar的副本。有关版本兼容性http://www.eclipse.org/jetty/documentation/current/alpn-chapter.html#alpn-versions
,请参阅此表