我使用spark-shell运行Spark的示例(使用Scala),我导入了库
import org.apache.spark.sql.DataFrame
import org.apache.spark.sql.{Row, SQLContext, DataFrame}
我得到了错误:
error: object DataFrame is not a member of package org.apache.spark.sql
我不知道为什么,我查了http://people.apache.org/~pwendell/spark-1.3.0-rc1-docs/api/scala/index.html#org.apache.spark.sql.DataFrame 谢谢!!!
答案 0 :(得分:1)
哦,我找到了原因,因为我的火花版本是1.2.0