使用Spark Java API

时间:2016-09-14 13:46:04

标签: hadoop apache-spark hive

我在Hadoop中有一个配置单元数据库。我试图使用JAVA使用Spark API查询它,但无法找到一个好的教程。谁能引导我走向正确的方向?

编辑我正在使用Spark版本1.6.2

到目前为止,我已经尝试过:

final SparkConf conf = new SparkConf().setAppName("Simple Application").setMaster("spark://my.url.to.Hue:8888");
JavaSparkContext sc = new JavaSparkContext(conf);
SQLContext sqlContext = new  SQLContext(sc);
DataFrame df = sqlContext.sql("SELECT * FROM mytableinHive");

我觉得我在主人身上设置的网址是错误的,但我不确定那里应该有什么价值

0 个答案:

没有答案