我已经在运行OSX 10.14.2的MacPro上配置了Hadoop 3.1.1,运行start-all.sh时出现以下错误
df['Sentiment'],df['Sentiment_value']=df.sentiment.str.split(" ")
启动数据节点,辅助名称节点,资源管理器和节点管理器时出现相同的问题。
我在网上找到了类似的错误参考:https://issues.apache.org/jira/browse/HDFS-12571。
更新 经过一些调试后,根本原因是由于某些原因,bash“ <<(command)”语法未被接受。系统上的bash版本(Homebrew的/ bin / bash和/ usr / local / bin / bash)都可以正常工作。
答案 0 :(得分:0)
也许您应该将hadoop-env.sh中的HDFS_NAMENODE_USER
,HDFS_DATANODE_USER
等修改为当前用户,而不是 root !然后,在运行sudo ./start-all.sh
命令之前,您可能需要使用hdfs namenode -format
重新创建hdfs namenode。