spark程序在本地系统上运行,但它不在服务器上运行

时间:2017-06-20 02:09:19

标签: apache-spark apache-spark-sql spark-dataframe apache-spark-mllib

我有一个用Java编写的spark程序。从中创建一个jar文件后,我可以在本地系统上运行它。但是当我想在远程服务器上运行它时,它会给我一个错误:

  

错误TaskSetManager:阶段1.0中的任务1失败了4次;堕胎   线程“main”中的异常org.apache.spark.SparkException:Job   由于阶段失败而中止:阶段1.0中的任务1失败4次,大多数   最近的失败:阶段1.0中失去的任务1.3(TID 10,192.168.230.2):   显示java.lang.NullPointerException

我需要提一下,我有完全相同的spark版本。 可能是什么问题?

0 个答案:

没有答案
相关问题