我是大数据,hadoop和linux的新手。我们有一个小的4节点集群,1个主节点和3个节点,在Ambari 2.1和Hadoop 2.2.6上运行。所有机器都在Ubuntu Server 12.04上运行。所有配置正确,一切正常。包括DNS,SSH,NTP等。但是,当我尝试安装HUE 3.8.1时,遵循本指南:http://gethue.com/hadoop-hue-3-on-hdp-installation-tutorial/安装成功,我可以在浏览器中打开它并登录。但后来它显示我3错误配置:
文件夹/ home / user / hue及其中的所有内容归hdfs用户所有,属于hdfs组。当第一次进入HUE时,我已经创建了ADMIN用户。我是否需要将此管理员用户添加到某个组,如果是,请将其添加到哪个组?此外,Spark作为Ambari软件包的一部分安装并运行。我需要单独安装Livy Spark还是一些配置?现在很困惑...... 我已经仔细检查了所有配置文件,它看起来对我来说一切都很好,任何帮助在哪里看,甚至指向哪里挖掘。遵循配置指南中的所有步骤并替换为正确的端口,主机和地址。任何想法有什么问题以及如何启动HUE?提前致谢。
答案 0 :(得分:2)
警告HDFS的路径不属于默认的' hdfs'。如果所有者是其他人并且这是正常的,您可以在此处更新Hue https://github.com/cloudera/hue/blob/master/desktop/conf.dist/hue.ini#L60
您应该为' secret_key'输入一个随机的文字字符串。这里https://github.com/cloudera/hue/blob/master/desktop/conf.dist/hue.ini#L21,没有人可以破解你的用户密码
如果您不使用Spark App http://gethue.com/spark-notebook-and-livy-rest-job-server-improvements/,则可能会忘记此警告。它需要Livy Spark Server运行