在Spark中声明HiveContext会显示错误

时间:2015-12-01 12:26:34

标签: java apache-spark apache-spark-sql

我已经复制了来自Apache Spark官方网站的代码。但我的Eclipse显示错误! 链接: http://spark.apache.org/docs/latest/sql-programming-guide.html#hive-tables

代码enter image description here

的屏幕截图

它显示“字段JavaSparkContext.sc不可见” 它建议通过将 sc.sc改为sc.sc()来快速解决。但之后我不能像SQLContext一样使用它(比如查询等等)。

我的需求在以下句子中描述。我需要在Spark SQL中运行查询,如下一句中给出的链接中所述。但它始终显示问题中描述的错误消息。 SparkSQL - Lag function?。 根据接受的答案,我尝试了一些修复(使其成为HiveContext)。但它给出了上述问题。

0 个答案:

没有答案