检查Hadoop守护程序是否正在运行的简单命令是什么?
例如,如果我想弄清楚为什么HDFS设置不正确,我想知道一种检查namemonode / datanode / jobtracker / tasktracker是否在这台机器上运行的方法。
有没有办法快速检查它而不查看日志或使用ps(在Linux上)?
答案 0 :(得分:13)
在shell类型'jps'中(你可能需要一个jdk来运行jps)。它列出了所有正在运行的java进程,并将列出正在运行的hadoop守护进程。
答案 1 :(得分:10)
如果您发现hadoop进程未在ps -ef|grep hadoop
上运行,请运行sbin/start-dfs.sh
。使用hdfs dfsadmin -report
进行监控:
[mapr@node1 bin]$ hadoop dfsadmin -report
Configured Capacity: 105689374720 (98.43 GB)
Present Capacity: 96537456640 (89.91 GB)
DFS Remaining: 96448180224 (89.82 GB)
DFS Used: 89276416 (85.14 MB)
DFS Used%: 0.09%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 2 (2 total, 0 dead)
Name: 192.168.1.16:50010
Decommission Status : Normal
Configured Capacity: 52844687360 (49.22 GB)
DFS Used: 44638208 (42.57 MB)
Non DFS Used: 4986138624 (4.64 GB)
DFS Remaining: 47813910528(44.53 GB)
DFS Used%: 0.08%
DFS Remaining%: 90.48%
Last contact: Tue Aug 20 13:23:32 EDT 2013
Name: 192.168.1.17:50010
Decommission Status : Normal
Configured Capacity: 52844687360 (49.22 GB)
DFS Used: 44638208 (42.57 MB)
Non DFS Used: 4165779456 (3.88 GB)
DFS Remaining: 48634269696(45.29 GB)
DFS Used%: 0.08%
DFS Remaining%: 92.03%
Last contact: Tue Aug 20 13:23:34 EDT 2013
答案 2 :(得分:5)
我找不到很好的解决方案,所以我用了
ps -ef | grep hadoop | grep -P 'namenode|datanode|tasktracker|jobtracker'
只是为了看东西是否正在运行
和
./hadoop dfsadmin -report
但是在服务器运行之前,最后一次没用。
答案 3 :(得分:5)
尝试jps
命令。它指定了正在运行的java进程。
答案 4 :(得分:4)
除了jps之外,另一个好主意是使用Hadoop提供的NameNode和JobTracker的Web界面。它不仅向您展示了流程,还为您提供了许多其他有用的信息,例如群集摘要,正在进行的工作等等。转到NN UI将您的Web浏览器指向“YOUR_NAMENODE_HOST:9000”,并将JT UI指向“YOUR_JOBTRACKER_HOST:9001”。
答案 5 :(得分:4)
你可以使用Jps命令,因为vipin就像这个命令一样:
/usr/lib/java/jdk1.8.0_25/bin/jps
当然你会用你拥有的路径更改java的路径"你安装java的路径"
Jps 是一个非常好的工具,用于检查预期的Hadoop进程是否正在运行(自v1.5.0以来Sun的Java的一部分)。
结果将是这样的:
2287 TaskTracker
2149 JobTracker
1938 DataNode
2085 SecondaryNameNode
2349 Jps
1788 NameNode
我从本教程中得到答案:http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/
答案 6 :(得分:0)
检查Hadoop节点是否正在运行:
sudo -u hdfs hdfs dfsadmin -report
配置容量:28799380685(26.82 GB)
现有容量:25104842752(23.38 GB)
DFS剩余:25012056064(23.29 GB)
使用的DFS:92786688(88.49 MB)
使用DFS%:0.37%
在复制的块下:436
具有损坏副本的块:0
缺少块:0Datanodes available:1(总共1个,0个死亡)
实时数据节点:
名称:127.0.0.1:50010(localhost.localdomain)
主机名:localhost.localdomain
机架:/默认
退役状态:正常
配置容量:28799380685(26.82 GB)
使用的DFS:92786688(88.49 MB)
非DFS使用:3694537933(3.44 GB)
DFS剩余:25012056064(23.29 GB)
使用DFS%:0.32%
DFS剩余%:86.85%
最后联系人:Thu Mar 01 22:01:38 IST 2018
答案 7 :(得分:0)
要检查恶魔是否正在运行?
您可以使用jps命令进行检查
也使用以下命令使用
ps -ef | grep -w namenode
ps -ef | grep -w datanode
ps -ef | grep -w tasktracker
-w:-将有助于获取确切的字符串
如果您具有超级用户特权,则也可以使用以下特权:
./hadoop dfsadmin -report
希望这会有所帮助!
答案 8 :(得分:-1)
尝试运行:
for service in /etc/init.d/hadoop-hdfs-*; do $service status; done;