Pyspark:ValueError

时间:2015-07-08 14:21:24

标签: pyspark

我有一个PySpark RDD字典,我试图将它们转换为数据帧,将它们保存为变量然后加入它们。当我尝试将我的一个RDD转换为数据帧时,我收到以下错误:

File "./spark-1.3.1/python/pyspark/sql/types.py",     
line 986, in _verify_type
"length of fields (%d)" % (len(obj), len(dataType.fields)))
ValueError: Length of object (52) does not match with length of fields (7)

有谁知道这究竟意味着什么,或者可以帮助我解决这个问题?

2 个答案:

答案 0 :(得分:0)

我同意 - 我们需要查看更多代码 - 混淆数据很好。

你正在使用SparkQL(sql类型) - 映射到什么? HDFS /文本

从错误中看,您的创建架构似乎不正确 - 导致错误 - 何时创建数据框。

答案 1 :(得分:0)

这是由于传递了错误的RDD,对不起大家。我传递了错误的RDD,导致不符合我正在使用的代码。