选择多列的Spark scala数据框会抛出ArrayIndexOutOfBoundException

时间:2016-10-12 13:00:16

标签: scala select apache-spark dataframe

我尝试使用以下方法从数据框中选择多个列以插入到表中,

var result = cassandraDf.select(columnNames.map(c => col(c)): _*)

var result = cassandraDf.select(columnNames.head, columnNames.tail: _*)

这两个方法都抛出java.lang.ArrayIndexOutOfBoundsException:25,我在数据帧中有26列

在数据框中选择列是否有任何限制?

谢谢, 灰

0 个答案:

没有答案