Spark Job使用的执行程序多于作业中分配的执行程序

时间:2019-01-17 21:25:33

标签: apache-spark

我的Spark作业中有以下设置:

java.sql.SQLException: No suitable driver found for jdbc:derby:myDB
at                 
java.sql/java.sql.DriverManager.getConnection(DriverManager.java:702)
at 
java.sql/java.sql.DriverManager.getConnection(DriverManager.java:251)
at Main.actionPerformed(Main.java:166)
    .
    .
    .

我的理解是,作业应由2个执行程序运行,而作业应由3个执行程序运行。这发生在我的多个作业中。有人可以解释原因吗?

0 个答案:

没有答案