标签: python apache-spark rdd pyspark
我的代码是:
sqlContext = HiveContext(sc) table = sqlContext.sql("select * from table").rdd print table.count()
当我将代码提交到群集时,我收到以下错误:
applySchema中的文件xxxx / dataframe.py line80 TypeError:'dict'对象不可调用
我只想将数据帧转换为rdd。