我正在尝试将我的es 2.2.0版本与hadoop HDFS集成。在我的文章中,我有1个主节点和1个数据节点。在我的主节点上,我安装了Es。 但是在将其与HDFS集成时,我的资源管理器应用程序工作陷入了接受状态。 不知何故,我找到了更改我的yarn-site.xml设置的链接:
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>2200</value>
<description>Amount of physical memory, in MB, that can be allocated for containers.</description>
</property>
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>500</value>
</property>
我也这样做了,但它没有给我预期的输出。
配置: -
my core-site.xml
<property>
<name>hadoop.tmp.dir</name>
<value>/app/hadoop/tmp</value>
<description>A base for other temporary directories.
</description> </property>
<property> <name>fs.default.name</name>
<value>
hdfs://localhost:54310
</value>
<description>The name of the default file system. A URI whose scheme and authority determine the FileSystem implementation. The uri's scheme determines the config property (fs.SCHEME.impl) naming the FileSystem implementation class. The uri's authority is used to determine the host, port, etc. for a filesystem.
</description>
</property>
我的mapred-site.xml,
<property>
<name>mapred.job.tracker</name>
<value>localhost:54311</value>
<description>The host and port that the MapReduce job tracker runs at. If "local", then jobs are run in-process as a single map and reduce task. </description>
</property>
我的hdfs-site.xml,
<property>
<name>dfs.replication</name> <value>1</value> <description>Default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time. </description>
</property>
请帮助我如何将我的RM作业更改为运行状态。所以我可以在HDFS上使用我的弹性搜索数据。
答案 0 :(得分:0)
如果屏幕截图是正确的 - 您有0个nodemanager - 因此应用程序无法开始运行 - 您需要启动至少1个nodemanager,以便可以启动应用程序主服务器和后续任务。