Apache Spark:由于阶段失败导致作业中止:" TID x由于未知原因而失败"

时间:2014-07-19 03:21:06

标签: python apache-spark

我正在处理一些奇怪的错误消息,我认为归结为内存问题,但我很难将其固定下来并可以使用专家的一些指导。< / p>

我有一台2机Spark(1.0.1)群集。两台机器都有8个核心;一个有16GB内存,另一个有32GB(这是主机)。我的应用程序涉及计算图像中的成对像素亲和力,尽管到目前为止我测试的图像只有1920x1200,小到16x16。

我确实需要更改一些内存和并行设置,否则我会得到明确的OutOfMemoryExceptions。在spark-default.conf中:

spark.executor.memory    14g
spark.default.parallelism    32
spark.akka.frameSize        1000

在spark-env.sh中:

SPARK_DRIVER_MEMORY=10G

然而,使用这些设置,除了丢失的执行程序之外,我得到了一堆关于“丢失的TID”的WARN语句(没有任务成功完成),这些语句重复4次,直到我最终得到以下错误消息并崩溃:

14/07/18 12:06:20 INFO TaskSchedulerImpl: Cancelling stage 0
14/07/18 12:06:20 INFO DAGScheduler: Failed to run collect at /home/user/Programming/PySpark-Affinities/affinity.py:243
Traceback (most recent call last):
  File "/home/user/Programming/PySpark-Affinities/affinity.py", line 243, in <module>
    lambda x: np.abs(IMAGE.value[x[0]] - IMAGE.value[x[1]])
  File "/net/antonin/home/user/Spark/spark-1.0.1-bin-hadoop2/python/pyspark/rdd.py", line 583, in collect
    bytesInJava = self._jrdd.collect().iterator()
  File "/net/antonin/home/user/Spark/spark-1.0.1-bin-hadoop2/python/lib/py4j-0.8.1-src.zip/py4j/java_gateway.py", line 537, in __call__
  File "/net/antonin/home/user/Spark/spark-1.0.1-bin-hadoop2/python/lib/py4j-0.8.1-src.zip/py4j/protocol.py", line 300, in get_return_value
py4j.protocol.Py4JJavaError: An error occurred while calling o27.collect.
: org.apache.spark.SparkException: Job aborted due to stage failure: Task 0.0:13 failed 4 times, most recent failure: TID 32 on host master.host.univ.edu failed for unknown reason
Driver stacktrace:
    at org.apache.spark.scheduler.DAGScheduler.org$apache$spark$scheduler$DAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1044)
    at org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1.apply(DAGScheduler.scala:1028)
    at org.apache.spark.scheduler.DAGScheduler$$anonfun$abortStage$1.apply(DAGScheduler.scala:1026)
    at scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59)
    at scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:47)
    at org.apache.spark.scheduler.DAGScheduler.abortStage(DAGScheduler.scala:1026)
    at org.apache.spark.scheduler.DAGScheduler$$anonfun$handleTaskSetFailed$1.apply(DAGScheduler.scala:634)
    at org.apache.spark.scheduler.DAGScheduler$$anonfun$handleTaskSetFailed$1.apply(DAGScheduler.scala:634)
    at scala.Option.foreach(Option.scala:236)
    at org.apache.spark.scheduler.DAGScheduler.handleTaskSetFailed(DAGScheduler.scala:634)
    at org.apache.spark.scheduler.DAGSchedulerEventProcessActor$$anonfun$receive$2.applyOrElse(DAGScheduler.scala:1229)
    at akka.actor.ActorCell.receiveMessage(ActorCell.scala:498)
    at akka.actor.ActorCell.invoke(ActorCell.scala:456)
    at akka.dispatch.Mailbox.processMailbox(Mailbox.scala:237)
    at akka.dispatch.Mailbox.run(Mailbox.scala:219)
    at akka.dispatch.ForkJoinExecutorConfigurator$AkkaForkJoinTask.exec(AbstractDispatcher.scala:386)
    at scala.concurrent.forkjoin.ForkJoinTask.doExec(ForkJoinTask.java:260)
    at scala.concurrent.forkjoin.ForkJoinPool$WorkQueue.runTask(ForkJoinPool.java:1339)
    at scala.concurrent.forkjoin.ForkJoinPool.runWorker(ForkJoinPool.java:1979)
    at scala.concurrent.forkjoin.ForkJoinWorkerThread.run(ForkJoinWorkerThread.java:107)

14/07/18 12:06:20 INFO DAGScheduler: Executor lost: 4 (epoch 4)
14/07/18 12:06:20 INFO BlockManagerMasterActor: Trying to remove executor 4 from BlockManagerMaster.
14/07/18 12:06:20 INFO BlockManagerMaster: Removed 4 successfully in removeExecutor
user@master:~/Programming/PySpark-Affinities$

如果我运行非常小的图像(16x16),它似乎运行完成(给我输出我期望没有任何异常被抛出)。但是,在运行的应用程序的stderr日志中,它将状态列为“KILLED”,最后的消息为“ERROR CoarseGrainedExecutorBackend:Driver Disassociated”。如果我运行任何更大的图像,我会得到上面粘贴的异常。

此外,如果我只使用master=local[*]进行spark-submit,除了仍然需要设置上述内存选项外,它还适用于任何大小的图像(我已经独立测试了两台机器;它们以local[*])运行时都会执行此操作。

任何想法发生了什么?

2 个答案:

答案 0 :(得分:9)

如果每次我问人们都有一分钱,你是否尝试过将分区数增加到相当大的范围,比如每个CPU至少有4个任务 - 比如高达1000个分区?&#34;我是一个富翁。那你试过增加分区了吗?

无论如何,我发现有其他令人反感的奇怪的解释是:

有时,通过使用UI导航到特定的worker stderr日志,您可以获得更多信息丰富的堆栈跟踪。

更新:由于spark 1.0.0无法通过UI完成Spark日志,因此您必须要求您的sysadm / devops帮助您,因为日志的位置完全没有记录。

答案 1 :(得分:0)

这个很难被抓住!问题是火花版本1.0.1,它没有指出实际的错误,但称之为“unknownReason”,导致难以追踪问题。 使用--driver-class-path path_to_spark_application运行spark应用程序,这将给出作业失败的正确错误。我的是JsResultException。 我想这个问题已经解决了火花1.6及以上。