java.sql.SQLException:ERROR 2007(INT09):过时的jar

时间:2018-03-05 22:43:53

标签: apache-spark apache-kafka hbase phoenix

我是新来的火花和卡夫卡。我们需要整合kafka + spark + Hbase(和Phoenix)。

错误:

  

线程中的异常" main" java.sql.SQLException:ERROR 2007(INT09):过时的jar。以下服务器需要将更新后的phoenix.jar放入HBase的类路径中:

我最终得到了上面的错误。如果有人可以请你帮忙解决这个问题。

以下是错误日志:

  

JDBC:凤:的localhost.localdomain:2181:/ HBase的-不安全
      testlocalhost.localdomain:6667
  18/03/05 16:18:52 INFO度量标准:初始化度量系统:phoenix
  18/03/05 16:18:52 WARN MetricsConfig:找不到配置:试过hadoop-metrics2-phoenix.properties,hadoop-metrics2.properties   18/03/05 16:18:52 INFO MetricsSystemImpl:计划的快照周期为10秒。   18/03/05 16:18:52 INFO MetricsSystemImpl:phoenix metrics系统启动   18/03/05 16:18:52 INFO ConnectionManager $ HConnectionImplementation:关闭主协议:MasterService   18/03/05 16:18:52 INFO ConnectionManager $ HConnectionImplementation:关闭zookeeper sessionid = 0x161f6fc5e4800a3   18/03/05 16:18:52 INFO ZooKeeper:Session:0x161f6fc5e4800a3已关闭   18/03/05 16:18:52 INFO ClientCnxn:EventThread关闭   线程" main"中的例外情况java.sql.SQLException:ERROR 2007(INT09):过时的jar。以下服务器需要将更新的phoenix.jar放入HBase的类路径中:region = SYSTEM.CATALOG ,, 1519831518459.b16e566d706c68469922eba74844a444。,hostname = localhost,16020,1520282812066,seqNum = 59       at org.apache.phoenix.exception.SQLExceptionCode $ Factory $ 1.newException(SQLExceptionCode.java:476)       at org.apache.phoenix.exception.SQLExceptionInfo.buildException(SQLExceptionInfo.java:150)       在org.apache.phoenix.query.ConnectionQueryServicesImpl.checkClientServerCompatibility(ConnectionQueryServicesImpl.java:1272)       在org.apache.phoenix.query.ConnectionQueryServicesImpl.ensureTableCreated(ConnectionQueryServicesImpl.java:1107)       在org.apache.phoenix.query.ConnectionQueryServicesImpl.createTable(ConnectionQueryServicesImpl.java:1429)       在org.apache.phoenix.schema.MetaDataClient.createTableInternal(MetaDataClient.java:2574)       在org.apache.phoenix.schema.MetaDataClient.createTable(MetaDataClient.java:1024)       在org.apache.phoenix.compile.CreateTableCompiler $ 2.execute(CreateTableCompiler.java:212)       在org.apache.phoenix.jdbc.PhoenixStatement $ 2.call(PhoenixStatement.java:358)       在org.apache.phoenix.jdbc.PhoenixStatement $ 2.call(PhoenixStatement.java:341)       在org.apache.phoenix.call.CallRunner.run(CallRunner.java:53)       在org.apache.phoenix.jdbc.PhoenixStatement.executeMutation(PhoenixStatement.java:339)       在org.apache.phoenix.jdbc.PhoenixStatement.executeUpdate(PhoenixStatement.java:1492)       在org.apache.phoenix.query.ConnectionQueryServicesImpl $ 12.call(ConnectionQueryServicesImpl.java:2437)       在org.apache.phoenix.query.ConnectionQueryServicesImpl $ 12.call(ConnectionQueryServicesImpl.java:2382)       在org.apache.phoenix.util.PhoenixContextExecutor.call(PhoenixContextExecutor.java:76)       在org.apache.phoenix.query.ConnectionQueryServicesImpl.init(ConnectionQueryServicesImpl.java:2382)       在org.apache.phoenix.jdbc.PhoenixDriver.getConnectionQueryServices(PhoenixDriver.java:255)       在org.apache.phoenix.jdbc.PhoenixEmbeddedDriver.createConnection(PhoenixEmbeddedDriver.java:149)       在org.apache.phoenix.jdbc.PhoenixDriver.connect(PhoenixDriver.java:221)       在java.sql.DriverManager.getConnection(DriverManager.java:664)       在java.sql.DriverManager.getConnection(DriverManager.java:270)       在com.spark.kafka.PhoenixJdbcClient.getConnection(PhoenixJdbcClient.scala:41)       在com.spark.kafka.PhoenixJdbcClient.currentTableSchema(PhoenixJdbcClient.scala:595)       在com.spark.kafka.SparkHBaseClient $ .main(SparkHBaseClient.scala:47)       在com.spark.kafka.SparkHBaseClient.main(SparkHBaseClient.scala)   18/03/05 16:18:52 INFO SparkContext:从shutdown hook调用stop()   18/03/05 16:18:52 INFO SparkUI:在http://192.168.1.103:4040停止Spark Web UI   18/03/05 16:18:53 INFO MapOutputTrackerMasterEndpoint:MapOutputTrackerMasterEndpoint已停止!   18/03/05 16:18:53 INFO MemoryStore:MemoryStore已清除   18/03/05 16:18:53 INFO BlockManager:BlockManager停止了   18/03/05 16:18:53 INFO BlockManagerMaster:BlockManagerMaster已停止   18/03/05 16:18:53 INFO OutputCommitCoordinator $ OutputCommitCoordinatorEndpoint:OutputCommitCoordinator停止了!   18/03/05 16:18:53 INFO SparkContext:成功停止了SparkContext   18/03/05 16:18:53 INFO ShutdownHookManager:关闭挂钩调用   18/03/05 16:18:53 INFO ShutdownHookManager:删除目录/ tmp / spark-c8dd26fc-74dd-40fb-a339-8c5dda36b973

我们将 Amabri Server 2.6.1.3 HDP-2.6.3.0 及以下组件一起使用:

  • HBASE-1.1.2
  • 卡夫卡-0.10.1
  • 火花2.2.0
  • phoenix

以下是我为HBase和Phoenix添加的POM工件。

<dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-client</artifactId>
            <version>1.3.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-common</artifactId>
            <version>1.3.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-protocol</artifactId>
            <version>1.3.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-server</artifactId>
            <version>1.3.1</version>
        </dependency>

        <dependency>
            <groupId>org.apache.phoenix</groupId>
            <artifactId>phoenix-spark</artifactId>
            <version>4.10.0-HBase-1.2</version>
        </dependency>
        <dependency>

1 个答案:

答案 0 :(得分:0)

请尝试以下

1.将Phoenix服务器jar复制到所有HBase区域服务器(HBase lib文件夹)
2.Restart HBase master