我真的很努力彻底清理Linux机器的Hadoop。我已经读过,就像删除我解压缩的tar.gz
一样简单,但这似乎并不完全对我有用。
最初,我想卸载是因为无法运行start-dfs.sh
命令。无法找到我试图通过在该sh
文件中手动设置的配置目录来解决的问题。
无论如何,在删除解压缩的目录rm -rf Hadoop-2.5.1
之后,我仍然可以运行Hadoop version
,它仍然填充有一个版本,并说它是从路径运行的:/ usr / lib / java / hadoop / hadoop-common.jar
因此,我手动删除了该位置的文件,并再次解压缩了Hadoop .tar.gz
文件,并遵循以下安装指南:
https://www.edureka.co/blog/install-hadoop-single-node-hadoop-cluster
现在,当我运行hadoop version
时,我得到:
错误:找不到或加载主类org.apache.hadoop.util.VersionInfo
我希望我已经提供了所有必要的信息,只是试图在我的机器上设置Hadoop以进行学习和实验。谢谢!