我想在SBT项目中做Spark教程,我需要安装哪些库?

时间:2019-02-03 11:06:19

标签: scala apache-spark intellij-idea apache-spark-sql sbt

我想做Apache Spark quick-start tutorial。对于每个示例,我想在IntelliJ中使用Scala工作表。

我需要在我的SBT配置中添加什么才能使它起作用?目前,我有:

libraryDependencies += "org.apache.spark" %% "spark-sql" % "2.4.0"

但这不足以使所有功能正常运行。我还需要安装什么才能使一切正常工作?

1 个答案:

答案 0 :(得分:1)

尝试一下:

class    ArrayAvg{

public   static   void  main (String [] s)
{/*enter code here*/


     double   numbers[] = {10.5, 20.6, 30.8, 15.5, 17.3, 25.5, 27.2, 20, 30, 18.5};


    byte   ctr;
    double   sum=0, avg;

    System.out.println("list of numbers is");

    for  (ctr=0; ctr<10; ctr++){

        System.out.println(numbers[ctr]);
        sum = sum + numbers[ctr];    
    }

    avg = sum/10;
    System.out.println(" /* Average of above numbers is */  "  + avg);

    }  //main

}  //class