Spark:与远程系统的关联丢失了akka.tcp(解除关联)

时间:2015-04-16 15:27:16

标签: apache-spark yarn

我正在使用Spark 1.3.0和Hadoop / Yarn,我收到一条错误消息,上面写着

  

WARN ReliableDeliverySupervisor:与远程系统关联[akka.tcp:// sparkYarnAM @ virtm2:51482]失败,地址现已封闭   对于[5000] ms。原因是:[解除关联]。

我读到它并发现将akka心跳间隔设置为100可以解决这个问题:

SparkConf conf = new SparkConf().setAppName("Name");
conf.set("spark.akka.heartbeat.interval", "100");

不幸的是,它不属于我的情况。几秒钟后,当我按下回车键时,作业会因此错误而失败。

我使用此命令提交作业:

/usr/local/spark130/bin/spark-submit 
--class de.unidue.langTecspark.TweetTag 
--master yarn-client 
--executor-memory 2g  
--driver-memory 4g 
/home/huser/sparkIt-1.0-standalone.jar

节点上执行容器的日志表示应用程序主机已被杀死

5 ERROR yarn.ApplicationMaster: RECEIVED SIGNAL 15: SIGTERM

我试图让一个最小的例子运行,这一个(它必不起作用..只是看它是否有同样的问题。):

public static void main(String [] args){
        SparkConf conf = new SparkConf().setAppName("Minimal");
        JavaSparkContext sc = new JavaSparkContext(conf);
        List<Integer> data = Arrays.asList(1, 2, 3, 4, 5);
        JavaRDD<Integer> distData = sc.parallelize(data);
        sc.close();
    }

我再次进入日志,Applicationmaster杀死了Error。这里的错误与内存无关,但我很难跟踪这个问题。

我有一个小型分布式设置,有4台机器用于数据/处理,1台用于名称节点。

任何帮助都非常感谢!

1 个答案:

答案 0 :(得分:0)

当主站和从站未正确启动时,可能会发生此问题。使用./sbin/start-all.sh启动主服务器和从服务器,然后提交您的应用程序。