当我尝试运行apache地图集时。我遇到一些hbase错误(我正在使用嵌入式hbase和solr)

时间:2019-10-25 07:15:12

标签: apache-atlas

我的Apache Atlas服务器已启动,但在application.log文件中发现错误。

用于Apache地图集的ui也未运行。

  1. 我已经遵循了Apache网站上的每个步骤。一切都很好。
  2. 我授予了atlas-env.sh和应用程序属性文件中的所有权限。
  3. 有人可以帮我弄清楚吗?
Running setup per configuration atlas.server.run.setup.on.start. (SetupSteps$SetupRequired:186)
2019-10-25 12:25:49,366 WARN  - [main:] ~ Running setup per configuration atlas.server.run.setup.on.start. (SetupSteps$SetupRequired:186)
2019-10-25 12:25:50,104 WARN  - [main:] ~ Retrieve cluster id failed (ConnectionImplementation:551)
java.util.concurrent.ExecutionException: org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /hbase/hbaseid
    at java.util.concurrent.CompletableFuture.reportGet(CompletableFuture.java:357)
    at java.util.concurrent.CompletableFuture.get(CompletableFuture.java:1895)
    at org.apache.hadoop.hbase.client.ConnectionImplementation.retrieveClusterId(ConnectionImplementation.java:549)
    at org.apache.hadoop.hbase.client.ConnectionImplementation.<init>(ConnectionImplementation.java:287)
    at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
    at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
    at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
    at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
    at org.apache.hadoop.hbase.client.ConnectionFactory.createConnection(ConnectionFactory.java:219)
    at org.apache.hadoop.hbase.client.ConnectionFactory.createConnection(ConnectionFactory.java:114)
    at org.janusgraph.diskstorage.hbase2.HBaseCompat2_0.createConnection(HBaseCompat2_0.java:46)
    at org.janusgraph.diskstorage.hbase2.HBaseStoreManager.<init>(HBaseStoreManager.java:314)
    at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
    at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
    at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
    at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
    at org.janusgraph.util.system.ConfigurationUtil.instantiate(ConfigurationUtil.java:58)
    at org.janusgraph.diskstorage.Backend.getImplementationClass(Backend.java:476)
    at org.janusgraph.diskstorage.Backend.getStorageManager(Backend.java:408)
    at org.janusgraph.graphdb.configuration.GraphDatabaseC

2 个答案:

答案 0 :(得分:1)

启动HBase时,HBase主节点在zookeeper中创建节点“ / hbase / hbaseid”。

1。检查过程。

使用'jps -m'检查HBase和zookeeper是否正在运行。 如果您配置了HBase在内部管理zookeeper,则无法使用jps命令查看zookeeper进程,然后可以使用'netstat -nt | grep ZK_PORT”,通常使用2181。

netstat -nt | grep 2181

2。检查Zookeeper节点

如果独立运行zookeeper集群,则可以使用Zookeeper CLI来检查节点“ / hbase / hbaseid”。

ZOOKEEPER/bin/zkCli.sh
[zk: ...] ls /
[zk: ...] get /hbase/hbaseid

答案 1 :(得分:0)

希望这对您有所帮助。

安装地图集

您可以从here下载atlas v2.0.0的源代码或master分支并进行构建。

$ export MAVEN_OPTS="-Xms2g -Xmx2g"
$ mvn clean install
$ mvn clean package -Pdist

如果构建master分支,则可以从/SOURCE_CODE/distro/target/apache-atlas-3.0.0-SNAPSHOT-server/apache-atlas-3.0.0-SNAPSHOT中找到服务器软件包。

您应先配置服务器,然后再运行它。 这是最低设置。请在conf目录中找到atlas-application.properties文件。

atlas.graph.storage.hostname=xxx.xxx.xxx.xxx:xxxx => zookeeper addr and port for hbase
atlas.graph.index.search.backend=[solr or elasticsearch] => choose one you want to use.
atlas.graph.index.hostname=xxx.xxx.xxx.xxx => solr or elasticsearch server's addr
atlas.kafka.zookeeper.connect=xxx.xxx.xxx.xxx:xxxx => zookeeper addr and port for Kafka
atlas.kafka.bootstrap.servers=xxx.xxx.xxx.xxx:xxxx => kafka addr
atlas.audit.hbase.zookeeper.quorum=xxx.xxx.xxx.xxx:xxxx => zookeeper addr and port for hbase

要运行服务器,

$ bin/atlas_start.py

安装zookeeper

实际上,要安装Zookeeper,几乎没有任何事可做。 只需遵循steps 在这种情况下,您应该更改hbase env。在hbase-env.sh

export HBASE_MANAGES_ZK=false

如果您从hbase日志文件中看到一些警告,例如“无法在请求的2181端口启动ZK”。然后请检查hbase-site.xml文件并将hbase.cluster.distributed设置为true。