在我们本地服务器上的HDFS上成功安装和配置HBase后,我在OVH VPS机器上进行了相同的配置,但是我遇到了一个奇怪的错误。
整个设置开始正常,但是,当我尝试从hbase shell创建表时,我收到以下错误:
2017-05-20 11:59:19,256错误 [RpcServer.FifoWFPBQ.default.handler = 29,队列= 2,端口= 16000] master.MasterRpcServices:区域服务器prdhad001,16020,1495274311971 报告致命错误: ABORTING区域服务器prdhad001,16020,1495274311971:协处理器 org.apache.hadoop.hbase.client.coprocessor.AggregateImplementation 抛出java.lang.ClassNotFoundException: org.apache.hadoop.hbase.client.coprocessor.AggregateImplementation 原因:java.lang.ClassNotFoundException: org.apache.hadoop.hbase.client.coprocessor.AggregateImplementation at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
之后整个hbase被破坏并抛出大量错误。它似乎没有正确加载一些罐子,但是在lib文件夹中存在jar。
我的配置:
虚拟化:kvm操作系统:CentOS Linux 7(核心)
CPE操作系统名称:cpe:/ o:centos:centos:7
内核:Linux 3.10.0-514.16.1.el7.x86_64
架构:x86-64 Hadoop 2.7.3 HBase 1.3.0export PATH = $ PATH:$ HADOOP_HOME / bin export HADOOP_HOME = / usr / local / hadoop export PATH = $ PATH:$ HADOOP_HOME / bin
export PATH = $ PATH:$ HADOOP_HOME / sbin export HADOOP_MAPRED_HOME = $ HADOOP_HOME导出 HADOOP_COMMON_HOME = $ HADOOP_HOME导出HADOOP_HDFS_HOME = $ HADOOP_HOME export YARN_HOME = $ HADOOP_HOME导出 HADOOP_COMMON_LIB_NATIVE_DIR = $ HADOOP_HOME / lib / native export HADOOP_OPTS =“ - Djava.library.path = $ HADOOP_HOME / lib”导出 HBASE_CLASSPATH =的/ usr /本地/ HBase的/ LIB /
答案 0 :(得分:0)
我想通了,在hbase-site.xml中我添加了以下属性:
<property>
<name>hbase.coprocessor.region.classes</name>
<value>org.apache.hadoop.hbase.coprocessor.AggregateImplementation</value>
</property>
用于协处理器,我们目前不使用。删除这部分修复了这个问题,但是,我想如果我们希望将来使用协处理器,我们可能会再次遇到这个问题,任何其他的帮助将是值得赞赏的。