Pyspark:从sum函数中获取价值

时间:2016-07-21 09:00:44

标签: python pyspark

这看起来很简单,但很长一段时间我都被震惊了。有人可以帮助我。

输入是一个表,我想在字段total_records中找到值的总和。这就是我在我的程序中所做的:

meta ['xxxx_processed'] = metadata_df.where(“filename like'%_xxxx_20160601.txt.gz'”)。\         选择( 'total_records')。GROUPBY()。总和()

我得到的是DataFrame [sum(totalrecords):bigint]。

有人可以帮助获取值而不是类型。

提前谢谢。

0 个答案:

没有答案