错误:无法找到或加载主类com.sparkarma.spark.WordCount

时间:2017-05-10 04:20:26

标签: scala maven apache-spark

package explore 我尝试运行以下程序。我是新手来编程。我在Scala IDE中遇到以下错误。我检查了主类,scala和spark没有版本问题。我提到输出文件夹默认。请告诉我代码中的错误。

ELEMENT* go_start(ELEMENT* l)
{
      while (l->prev)
          l = l->prev;
      return l;
}

ELEMENT* go_end(ELEMENT* l)
{
      while (l->next)
          l = l->next;
      return l;
}

ScreenShot3

这是我的pom.xml

int main()
{
     ELEMENT* list;

     list = push_top(list, 18);
     list = push_bottom(list, 18);
     list = push_top(list, 18);

     list = go_start(list);

     while (l->next)
     {
          printf("%d\n", l.info);
     }

     return (count_elem(list));
}

2 个答案:

答案 0 :(得分:0)

您正在覆盖主要方法。确保你没有这样做

object WordCount{

  def main(args:Array[String])  {
     val conf = new SparkConf().setAppName("Word Count").setMaster("local[2]")
     val sc = new SparkContext(conf)

     val bigFile = sc.textFile("hdfs://localhost:9000/home/chaitanya/files/bigText")

     val words = bigFile.flatMap(line => line.split(" ")).count()

     println(words)
  }
}

在查看项目资源管理器后,您需要右键单击scala文件夹并选择构建路径 - >用作源文件夹。

答案 1 :(得分:0)

您的项目文件夹没有Scala库容器。您似乎在项目中缺少Scala库或Scala Nature。查看您的pom.xml并在项目中添加适当的Scala库。检查是否添加了以下依赖项。

    <dependency>
        <artifactId>scala-library</artifactId>
        <groupId>org.scala-lang</groupId>
        <version>${scala.version}</version>
    </dependency>

如果是,请按照以下步骤操作:

  1. Right Click on project pom.xml ->Run As ->Maven Install
  2. Right Click on Project ->Configure ->Add Scala Nature
  3. Right Click on Project -> Scala -> Add scala library to build Path
  4. Right Click on Scala Library container -> Properties -> Classpath container -> Select containers as per the version defined in pom.xml
  5. 您的代码看起来不错。如果您仍然看到问题,请提供您的pom.xml

    请将spark-core_2.10版本从1.4.0升级到1.6.2。使用maven依赖关系,并按照上述步骤操作。

    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.10</artifactId>
        <version>1.6.2</version>
    </dependency>