为Hadoop生态系统重新配置java环境变量

时间:2017-10-11 11:15:16

标签: hadoop cloudera scala-ide

我试图在我的Cloudera VM 5.10中安装Scala IDE 4.7,它分别预先配置了JDK 1.7,Spark 1.6版本。     所以,我通过卸载Cloudera给出的/usr/java/jdk1.7中的默认JDK在/ opt / location中安装了jdk 1.8。我在.bash_profile中添加了java环境变量。我成功地安装了Scala IDE。     但现在Hadoop的所有生态系统都指向我已卸载的旧JDK 1.7并在运行时抛出错误。任何人都可以告诉我在哪里可以为Hadoop生态系统配置java变量以使用新的1.8 JDK? Here is the screen shot for reference

1 个答案:

答案 0 :(得分:0)

步骤1:停止所有hadoop服务器 第2步:编辑bigtop-utils文件。         我已经添加了jdk 1.8的位置。         创建变量BIGTOP_MAJOR = 8。         它选择jdk的首选顺序是6,7,8并打开JDK。 第3步:保存并重新启动。