我已经复制了来自Apache Spark官方网站的代码。但我的Eclipse显示错误! 链接: http://spark.apache.org/docs/latest/sql-programming-guide.html#hive-tables
的屏幕截图它显示“字段JavaSparkContext.sc不可见” 它建议通过将 sc.sc改为sc.sc()来快速解决。但之后我不能像SQLContext一样使用它(比如查询等等)。
我的需求在以下句子中描述。我需要在Spark SQL中运行查询,如下一句中给出的链接中所述。但它始终显示问题中描述的错误消息。 SparkSQL - Lag function?。 根据接受的答案,我尝试了一些修复(使其成为HiveContext)。但它给出了上述问题。