我想将hbase类路径添加到我的spark,但是运行hbase classpath
命令时出现错误。
我在环境中使用Java 1.8在本地设置了hadoop 3.2.0。
$ hbase类路径
/usr/lib/hadoop/libexec/hadoop-functions.sh:第2364行:HADOOP_ORG.APACHE.HADOOP.HBASE.UTIL.GETJAVAPROPERTY_USER:无效的变量名 /usr/lib/hadoop/libexec/hadoop-functions.sh:第2459行:HADOOP_ORG.APACHE.HADOOP.HBASE.UTIL.GETJAVAPROPERTY_OPTS:无效的变量名 错误:找不到或加载主类org.apache.hadoop.hbase.util.GetJavaProperty
答案 0 :(得分:1)
显然是个老问题,但您的配置可能有误。
这可能是由于权限不足造成的。您可能想尝试使用“sudo”和命令进行故障排除。此修复确认我在执行 hadoop-functions.sh 中的命令时遇到了权限问题。