pyspark将数据帧转换为rdd时出错

时间:2015-07-16 07:07:08

标签: python apache-spark rdd pyspark

我的代码是:

 sqlContext = HiveContext(sc)
 table = sqlContext.sql("select * from table").rdd

 print table.count()

当我将代码提交到群集时,我收到以下错误:

  

applySchema中的文件xxxx / dataframe.py line80   TypeError:'dict'对象不可调用

我只想将数据帧转换为rdd。

0 个答案:

没有答案