资源管理器立即死亡,不运行

时间:2017-09-08 08:02:47

标签: mapreduce yarn hadoop2 resourcemanager

我正在尝试在我的计算机上设置 hadoop 2.7.3 单节点群集。有一段时间,我成功运行了所有服务并运行了我的自定义jar文件,该文件运行正常。 稍后再次停止并启动服务后,我发现资源管理器未运行。我使用以下方式启动服务:

start-dfs.sh
start-yarn.sh

执行jps给出:

14755 ResourceManager
13396 DataNode
14884 NodeManager
13606 SecondaryNameNode
15099 Jps
13262 NameNode

这很好,但是在我运行我的jar文件的某个时候之后,它仍然坚持:

17/09/08 12:54:59 INFO client.RMProxy: Connecting to ResourceManager at /127.0.0.1:8032
17/09/08 12:55:01 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8032. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
17/09/08 12:55:02 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8032. Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)

再次执行jps会显示资源管理器未运行。我对此非常困惑,尝试了很多解决方案,但没有找到一个解决方案。

这是我的/ etc / hosts

127.0.0.1       localhost
127.0.1.1       salman-home
# The following lines are desirable for IPv6 capable hosts
#::1     ip6-localhost ip6-loopback
#fe00::0 ip6-localnet
#ff00::0 ip6-mcastprefix
#ff02::1 ip6-allnodes
#ff02::2 ip6-allrouters

我已通过sudo ufw disable

禁用防火墙

这是我的yarn-site.xml:

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>127.0.0.1:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>127.0.0.1:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>127.0.0.1:8031</value>
</property>
</configuration>

mapred-site.xml中:

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

核心-site.xml中:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost/</value>
    </property>
</configuration>

HDFS-site.xml中:

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
</configuration>

非常感谢任何形式的帮助。

1 个答案:

答案 0 :(得分:1)

我有点傻。该端口由InfluxDB使用。资源经理试图获得它,但这种拉锯战总是由Influx赢得。通过停止Influxdb服务,我解决了这个问题。