我尝试在我的google计算引擎hadoop群集上设置一个hive环境,该群集是通过一次点击部署部署的。
当我尝试切换到hdfs用户(su hdfs)时,我收到以下错误消息。
没有用户'hdfs'的密码输入
答案 0 :(得分:0)
"一键式部署"是一个较旧的示例,可能会显示来自shell脚本和tarball的安装,但不打算用作受支持的Hadoop服务,并且不会像hdfs
用户那样设置典型的Hadoop安装配置或将命令添加到/usr/bin
。
如果您想要更多Hadoop(以及Pig + Hive + Spark)专业服务,您可能需要考虑使用Google Cloud Dataproc,这是Google的托管Hadoop解决方案。您可以在Dataproc中create clusters from the cloud console UI就像点击部署一样,并且您将获得一个更完全安装的Hadoop / Hive环境,包括每个集群持久的基于MySQL的Hive Metastore,它与SparkSQL共享如果您愿意,可以轻松使用Spark而无需修改Hive环境。