尝试执行任何与hadoop相关的cmd操作时出现此错误:
`Error: JAVA_HOME is incorrectly set.
Please update C:\Hadoop\hadoop-2.7.2\conf\hadoop-env.cmd '-Xmx512m' is not recognized as an internal or external command, operable program or batch file.`
我的JAVA_HOME在环境变量中设置为C:\Program Fies(x86)\Java\jdk1.8.0_91
。
我还更改了C:\Hadoop\hadoop-2.7.2\etc\hadoop-env.sh
,并使JAVA_HOME
等于上述值。
答案 0 :(得分:2)
间距是这里的问题。安装java为C:\java\jdk
而不是C:\Program Fies(x86)\Java\jdk1.8.0_91
,这在Windows 8.1中适用于我。
答案 1 :(得分:0)
请尝试编辑hadoop-env.cmd(Windows命令脚本)而不是hadoop-env.sh文件,并将路径设置为JAVA_HOME。
说明: - >确保您的jdk路径在其路径中不包含空格(例如:C:\ Program Files \ java。:here“Program Files”包含无法通过hadoop解析的空间){如果jdk路径中有空格,然后在路径名中没有空格的其他路径中安装java} - >右键单击hadoop-env.cmd并使用记事本进行编辑 - >设置JAVA_HOME =(例如:设置JAVA_HOME = C:\ java)
这对我有用,我在windows上安装了Apache Spark,安装了scala和scala IDE(使用Eclipse - > Maven项目作为scala IDE),解决了winutils错误并最终解决了这个错误视窗。请随时询问有关这些问题的任何疑问。
答案 2 :(得分:0)
在hadoop-env.cmd中为具有Java jdk位置的Windows7设置JAVA_HOME,路径中没有空格。我也面临问题。
最初JDK路径为-C:\ Program Files \ Java \ jdk1.8.0_144
替换为-C:\ Java \ jdk1.8.0_144
现在Hadoop已通过CMD正常启动