错误:对象DataFrame不是包org.apache.spark.sql的成员

时间:2015-03-12 06:53:28

标签: scala apache-spark apache-spark-sql

我使用spark-shell运行Spark的示例(使用Scala),我导入了库

import org.apache.spark.sql.DataFrame
import org.apache.spark.sql.{Row, SQLContext, DataFrame}

我得到了错误:

error: object DataFrame is not a member of package org.apache.spark.sql

我不知道为什么,我查了http://people.apache.org/~pwendell/spark-1.3.0-rc1-docs/api/scala/index.html#org.apache.spark.sql.DataFrame 谢谢!!!

1 个答案:

答案 0 :(得分:1)

哦,我找到了原因,因为我的火花版本是1.2.0