如何使用python获取spark中一行的值

时间:2016-07-05 19:51:31

标签: python apache-spark dataframe pyspark

我想获取存储在数据帧中的值。不使用.show()打印,将其存储到变量中。我不想使用Pandas,只需使用Spark数据帧。我是新手,虽然这看起来很基本,但stackoverflow并没有帮助。

average = (myDF
            .groupBy()
            .mean()
            )

print average

目标是“打印平均值”打印浮动,我可以使用它。 获得行/列的值的一般方法也将是欣赏的。感谢。

0 个答案:

没有答案