用于Spark的Thrift服务器无法启动

时间:2018-10-28 15:20:45

标签: apache-spark hive thrift metastore

我目前正在尝试在hadoop集群(单机)上安装Apache Spark。

我已经以伪分布式模式安装了Hadoop,并以Remote Metastore安装了Apache Hive。

问题是旧服务器失败并出现以下错误。

2018-10-28 14:33:52 WARN  HiveMetaStore:622 - Retrying creating default database after error: Error creating transactional connection factory
javax.jdo.JDOFatalInternalException: Error creating transactional connection factory
        at org.datanucleus.api.jdo.NucleusJDOHelper.getJDOExceptionForNucleusException(NucleusJDOHelper.java:587)

我不知道为什么会出现此错误。

问题:

我应该检查哪个配置?什么是正确的配置?

环境:

  • 伪分布模式下的Hadoop 2.9.1
  • 德比10.14。
  • 带有远程元存储的配置单元3.1.0
  • 火花2.3.2
  • OpenSUSE 42.2(Docker)

注意:

  • Hiveserver2正常工作。启动Hiverserver2之后,我可以在beeline上创建到Hiveserver2的连接。
  • 在$ SPARK_HOME / conf下,有一个Hive的hive-site.xml副本。
  • 启动节俭服务器时,我还没有启动Hiveserver2。
  • 我没有任何选择地启动了Thrift服务器:start-thriftserver.sh
  • 到目前为止,我还是以root身份工作。

0 个答案:

没有答案