所以我有一个小的Hadoop集群,有1个主人和5个工人。我的主人和工人的hdfs-site.xml如下所示:
set "Status=matched: 15:19:39 03/15/2016 from=10.18.20.116 oid=.1.3.6.1.4.1.1302.3.12.10.2.0.2 trap= n/a specific= n/a traptime=2822 hours 58 minutes 52 seconds community=NOM agent=10.18.20.116 version=v2c var1=1016273298 var2=.1.3.6.1.4.1.1302.3.12.10.2.0.2 var3=vmsitescope01 var4=1470979 Active Job Completed with Exit Status 58 var5=Alert Raised on: March 15, 2016 3:19 PM Job: 2726538 Tree Type : Server Tree Name : ALL MASTER SERVERS Nodes : fmsnbu700 Job Policy: FMS7-DD-Linux-ALL_LOCAL_DRIVES Exit Status: 58 (can't connect to client) Client: ipreavpada01nb New State: Done Alert Policy: Client Job Completion Status OpsCenter Server: FMSOPSCENTER01 Comment: var6=Client Job Completion Status var7= var8= var9=FMSOPSCENTER01"
REM remove from beginning to (including) "Server: ":
set "status=%status:*Server: =%"
REM get the first token from the remaining string:
for /f %%a in ("%status%") do set "status=%%a
echo %status%
我的群集运行顺畅,所有守护进程都运行正常。我能够访问HDFS来导入,导出数据,运行字数统计工作等等......但是在我的工作人员中,没有" namenode" " / home / username / hadoop / yarn / hdfs /"下的文件夹;路径。这是正常行为吗?
答案 0 :(得分:0)
NameNode文件夹应该在namenode主机上可用
答案 1 :(得分:0)
您的namenode文件夹存在于运行namenode守护程序的节点上。
根据上面提到的hdfs-site.xml。它是在
创建的/home/username/hadoop/yarn/hdfs/namenode
答案 2 :(得分:0)
自从您发布问题已经有一段时间了,这就是应该的样子。
换句话说,工作程序是数据节点,因此只需要一个“ datanode”目录。因此,但这取决于您的配置,名称节点通常确实仅具有一个namenode目录。一种例外情况是,您的名称节点也充当数据节点,不建议这样做,但有可能。