Windows 10中的Spark设置

时间:2017-07-27 05:56:19

标签: windows hadoop apache-spark

任何人都可以建议我在我的机器中设置火花的好教程,远程访问安装了hadoop的其他机器。

2 个答案:

答案 0 :(得分:0)

您需要的是客户端设置。您计划连接的hadoop发行版可能在其文档中设置了客户端。像MapR一样有mapr-client。

一旦到位,请按照其中任何一个来设置spark,

How to set up Spark on Windows?

Running apache Spark on windows

http://www.ics.uci.edu/~shantas/Install_Spark_on_Windows10.pdf

如果这有帮助,请告诉我。欢呼声。

答案 1 :(得分:0)

我建议您在Windows上使用IntelliJ IDEA使用Spark进行开发。创建一个SBT项目,您可以在其中复制构建文件中的下一个代码,它将为您下载所有依赖项。

version := "1.0"
scalaVersion := "2.10.6"
// grading libraries
libraryDependencies += "junit" % "junit" % "4.10" % "test"

libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "1.6.3",
  "org.apache.spark" %% "spark-sql" % "1.6.3",
  "org.apache.spark" %% "spark-hive" % "1.6.3"
)

libraryDependencies ++= Seq(
  "org.apache.commons" % "commons-csv" % "1.4",
  "joda-time" % "joda-time" % "2.9.9",
  "com.univocity" % "univocity-parsers" % "1.5.1"
)
libraryDependencies +="com.databricks" %% "spark-csv" % "1.5.0"

之后创建一个scala对象,并开始开发。它主要用于Spark的本地开发。在读取或写入文件时要注意路径。