我遵循了那个指导并安装了spark-1.6.1和hadoop,但是当我运行它时,它就挂在这里。 (我抱怨JVM没有在10秒内启动之前我必须重新启动机器)
sc< - sparkR.init(master =" local") 使用spark-submit命令启动java:/spark-1.6.1/bin/spark-submit.cmd" - packages" " com.databricks:火花csv_2.11:1.2.0" " sparkr - 壳" C:\ Users \ i50194 \ AppData \ Local \ Temp \ RtmpUnK05t \ backend_portff47fcb7e27