如何在zeppelin中将spark scala DataFrame绑定到sparkR?

时间:2016-04-24 09:24:00

标签: apache-spark apache-zeppelin

spark中创建了一个数据框,尝试将其传递给spark.r

创建将成功创建的DataFrame绑定到z

%spark
z.put("myDF", myDF)

并且来自spark.r未能得到它:

%spark.r
z.get("myDF")

我得到的地方

<simpleError in eval(expr, envir, enclos): could not find function "z.get">

如何在DF内的spark内创建spark.r

1 个答案:

答案 0 :(得分:2)

SceneManager.LoadScene(0);解释器使用ZeppelinContext略有不同:

您需要在sparkr解释器的z之前使用.z.get(...).。例如:

sparkr