我试图在我的Cloudera VM 5.10中安装Scala IDE 4.7,它分别预先配置了JDK 1.7,Spark 1.6版本。 所以,我通过卸载Cloudera给出的/usr/java/jdk1.7中的默认JDK在/ opt / location中安装了jdk 1.8。我在.bash_profile中添加了java环境变量。我成功地安装了Scala IDE。 但现在Hadoop的所有生态系统都指向我已卸载的旧JDK 1.7并在运行时抛出错误。任何人都可以告诉我在哪里可以为Hadoop生态系统配置java变量以使用新的1.8 JDK? Here is the screen shot for reference
答案 0 :(得分:0)
步骤1:停止所有hadoop服务器 第2步:编辑bigtop-utils文件。 我已经添加了jdk 1.8的位置。 创建变量BIGTOP_MAJOR = 8。 它选择jdk的首选顺序是6,7,8并打开JDK。 第3步:保存并重新启动。