我正在使用带有Scala插件的Jetbrains IntelliJ IDEA,并且正在尝试执行一些使用Apache Spark的代码。但是,每当我尝试运行它时,由于异常
,代码都无法正确执行Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream
at org.apache.spark.SparkConf.loadFromSystemProperties(SparkConf.scala:76)
at org.apache.spark.SparkConf.<init>(SparkConf.scala:71)
at org.apache.spark.SparkConf.<init>(SparkConf.scala:58)
at KMeans$.main(kmeans.scala:71)
at KMeans.main(kmeans.scala)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.fs.FSDataInputStream
at java.net.URLClassLoader.findClass(URLClassLoader.java:382)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 5 more
从终端运行spark-shell
不会给我带来任何问题,对我来说也不会显示警告unable to load native-hadoop library for your platform
。
我已经阅读了一些与我的问题类似的问题,但是在这些情况下,他们遇到了spark-shell
或集群配置的问题。
答案 0 :(得分:0)
我使用spark-core_2.12-2.4.3.jar
时没有依赖项。我通过通过Maven添加spark-core库解决了该问题,该库会自动添加所有依赖项。