我是新来的火花和卡夫卡。我们需要整合kafka + spark + Hbase(和Phoenix)。
错误:
线程中的异常" main" java.sql.SQLException:ERROR 2007(INT09):过时的jar。以下服务器需要将更新后的phoenix.jar放入HBase的类路径中:
我最终得到了上面的错误。如果有人可以请你帮忙解决这个问题。
以下是错误日志:
JDBC:凤:的localhost.localdomain:2181:/ HBase的-不安全
testlocalhost.localdomain:6667
18/03/05 16:18:52 INFO度量标准:初始化度量系统:phoenix
18/03/05 16:18:52 WARN MetricsConfig:找不到配置:试过hadoop-metrics2-phoenix.properties,hadoop-metrics2.properties 18/03/05 16:18:52 INFO MetricsSystemImpl:计划的快照周期为10秒。 18/03/05 16:18:52 INFO MetricsSystemImpl:phoenix metrics系统启动 18/03/05 16:18:52 INFO ConnectionManager $ HConnectionImplementation:关闭主协议:MasterService 18/03/05 16:18:52 INFO ConnectionManager $ HConnectionImplementation:关闭zookeeper sessionid = 0x161f6fc5e4800a3 18/03/05 16:18:52 INFO ZooKeeper:Session:0x161f6fc5e4800a3已关闭 18/03/05 16:18:52 INFO ClientCnxn:EventThread关闭 线程" main"中的例外情况java.sql.SQLException:ERROR 2007(INT09):过时的jar。以下服务器需要将更新的phoenix.jar放入HBase的类路径中:region = SYSTEM.CATALOG ,, 1519831518459.b16e566d706c68469922eba74844a444。,hostname = localhost,16020,1520282812066,seqNum = 59 at org.apache.phoenix.exception.SQLExceptionCode $ Factory $ 1.newException(SQLExceptionCode.java:476) at org.apache.phoenix.exception.SQLExceptionInfo.buildException(SQLExceptionInfo.java:150) 在org.apache.phoenix.query.ConnectionQueryServicesImpl.checkClientServerCompatibility(ConnectionQueryServicesImpl.java:1272) 在org.apache.phoenix.query.ConnectionQueryServicesImpl.ensureTableCreated(ConnectionQueryServicesImpl.java:1107) 在org.apache.phoenix.query.ConnectionQueryServicesImpl.createTable(ConnectionQueryServicesImpl.java:1429) 在org.apache.phoenix.schema.MetaDataClient.createTableInternal(MetaDataClient.java:2574) 在org.apache.phoenix.schema.MetaDataClient.createTable(MetaDataClient.java:1024) 在org.apache.phoenix.compile.CreateTableCompiler $ 2.execute(CreateTableCompiler.java:212) 在org.apache.phoenix.jdbc.PhoenixStatement $ 2.call(PhoenixStatement.java:358) 在org.apache.phoenix.jdbc.PhoenixStatement $ 2.call(PhoenixStatement.java:341) 在org.apache.phoenix.call.CallRunner.run(CallRunner.java:53) 在org.apache.phoenix.jdbc.PhoenixStatement.executeMutation(PhoenixStatement.java:339) 在org.apache.phoenix.jdbc.PhoenixStatement.executeUpdate(PhoenixStatement.java:1492) 在org.apache.phoenix.query.ConnectionQueryServicesImpl $ 12.call(ConnectionQueryServicesImpl.java:2437) 在org.apache.phoenix.query.ConnectionQueryServicesImpl $ 12.call(ConnectionQueryServicesImpl.java:2382) 在org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76) 在org.apache.phoenix.query.ConnectionQueryServicesImpl.init(ConnectionQueryServicesImpl.java:2382) 在org.apache.phoenix.jdbc.PhoenixDriver.getConnectionQueryServices(PhoenixDriver.java:255) 在org.apache.phoenix.jdbc.PhoenixEmbeddedDriver.createConnection(PhoenixEmbeddedDriver.java:149) 在org.apache.phoenix.jdbc.PhoenixDriver.connect(PhoenixDriver.java:221) 在java.sql.DriverManager.getConnection(DriverManager.java:664) 在java.sql.DriverManager.getConnection(DriverManager.java:270) 在com.spark.kafka.PhoenixJdbcClient.getConnection(PhoenixJdbcClient.scala:41) 在com.spark.kafka.PhoenixJdbcClient.currentTableSchema(PhoenixJdbcClient.scala:595) 在com.spark.kafka.SparkHBaseClient $ .main(SparkHBaseClient.scala:47) 在com.spark.kafka.SparkHBaseClient.main(SparkHBaseClient.scala) 18/03/05 16:18:52 INFO SparkContext:从shutdown hook调用stop() 18/03/05 16:18:52 INFO SparkUI:在http://192.168.1.103:4040停止Spark Web UI 18/03/05 16:18:53 INFO MapOutputTrackerMasterEndpoint:MapOutputTrackerMasterEndpoint已停止! 18/03/05 16:18:53 INFO MemoryStore:MemoryStore已清除 18/03/05 16:18:53 INFO BlockManager:BlockManager停止了 18/03/05 16:18:53 INFO BlockManagerMaster:BlockManagerMaster已停止 18/03/05 16:18:53 INFO OutputCommitCoordinator $ OutputCommitCoordinatorEndpoint:OutputCommitCoordinator停止了! 18/03/05 16:18:53 INFO SparkContext:成功停止了SparkContext 18/03/05 16:18:53 INFO ShutdownHookManager:关闭挂钩调用 18/03/05 16:18:53 INFO ShutdownHookManager:删除目录/ tmp / spark-c8dd26fc-74dd-40fb-a339-8c5dda36b973
我们将 Amabri Server 2.6.1.3 与 HDP-2.6.3.0 及以下组件一起使用:
以下是我为HBase和Phoenix添加的POM工件。
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-client</artifactId>
<version>1.3.1</version>
</dependency>
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-common</artifactId>
<version>1.3.1</version>
</dependency>
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-protocol</artifactId>
<version>1.3.1</version>
</dependency>
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-server</artifactId>
<version>1.3.1</version>
</dependency>
<dependency>
<groupId>org.apache.phoenix</groupId>
<artifactId>phoenix-spark</artifactId>
<version>4.10.0-HBase-1.2</version>
</dependency>
<dependency>
答案 0 :(得分:0)
请尝试以下
1.将Phoenix服务器jar复制到所有HBase区域服务器(HBase lib文件夹)
2.Restart HBase master