Spark GenericRowWithSchema无法强制转换为自定义对象

时间:2018-10-24 11:28:27

标签: apache-spark dataframe apache-spark-sql

我正在尝试将我的dataframe列之一读取为

val value  = row.getAs[Seq[Book]]("booklist")

现在,当我尝试在每个Book对象上运行以下代码时:

value.foreach(v=>{ 
     System.out.println(v.getClass())
 })

它出现以下错误:

  

java.lang.ClassCastException:org.apache.spark.sql.catalyst.expressions.GenericRowWithSchema无法转换为Book

理想情况下,它应该打印对象的类,即为列表中的每个元素预订。

任何帮助将不胜感激。

0 个答案:

没有答案