我正在尝试使用spark运行一个简单的脚本,它首先给了我
线程“main”中的异常java.lang.IllegalAccessError:尝试从类org.apache.hadoop.mred.FileInputFormat
访问方法com.google.common.base.Stopwatch。()
经过一些谷歌搜索后,我将hadoop-mapreduce-client-core添加到我的pom.xml中。
现在我正在看
异常:com.google.inject.internal.util。$ ComputationException从线程“main”中的UncaughtExceptionHandler抛出
没有堆栈跟踪。对于引用,这些是我认为在我的pom.xml中的相关依赖项:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.3.0</version>
</dependency>
<dependency>
<groupId>io.netty</groupId>
<artifactId>netty-all</artifactId>
<version>4.1.17.Final</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-mapreduce-client-core</artifactId>
<version>2.7.2</version>
</dependency>
pom.xml有Guice 4.0。我已经尝试了谷歌的一个建议,即尝试捕捉我的类,然后打印出堆栈跟踪,但它打印出同样的东西。还有其他方法可以找出究竟发生了什么吗?