例外:com.google.inject.internal.util。$ ComputationException从线程“main”中的UncaughtExceptionHandler抛出而没有堆栈跟踪

时间:2018-06-05 00:55:38

标签: java apache-spark

我正在尝试使用spark运行一个简单的脚本,它首先给了我

  

线程“main”中的异常java.lang.IllegalAccessError:尝试从类org.apache.hadoop.mred.FileInputFormat

访问方法com.google.common.base.Stopwatch。()

经过一些谷歌搜索后,我将hadoop-mapreduce-client-core添加到我的pom.xml中。

现在我正在看

  

异常:com.google.inject.internal.util。$ ComputationException从线程“main”中的UncaughtExceptionHandler抛出

没有堆栈跟踪。对于引用,这些是我认为在我的pom.xml中的相关依赖项:

<dependency>
  <groupId>org.apache.spark</groupId>
  <artifactId>spark-core_2.11</artifactId>
  <version>2.3.0</version>
</dependency>
<dependency>
  <groupId>io.netty</groupId>
  <artifactId>netty-all</artifactId>
  <version>4.1.17.Final</version>
</dependency>
<dependency>
  <groupId>org.apache.hadoop</groupId>
  <artifactId>hadoop-mapreduce-client-core</artifactId>
  <version>2.7.2</version>
</dependency>

pom.xml有Guice 4.0。我已经尝试了谷歌的一个建议,即尝试捕捉我的类,然后打印出堆栈跟踪,但它打印出同样的东西。还有其他方法可以找出究竟发生了什么吗?

0 个答案:

没有答案