如何通过sqlContext调用大的hqls文件?

时间:2018-05-21 15:59:58

标签: scala apache-spark hive pyspark

我目前正在探索如何通过sqlContext调用大型hql文件(在select语句中包含100行插入)。

另一件事是,hqls文件是参数化的,所以在从sqlContext调用它时,我也希望传递参数。

已经浏览了很多博客和帖子,但没有找到任何答案。

我尝试的另一件事是将rdd的输出存储到变量中。

pyspark

max_date=sqlContext.sql("select count(rec_insert_date) from table")

现在想要将max_date作为变量传递给下一个rdd

incremetal_data=sqlConext.sql(s"select count(1) from table2 where rec_insert_date > $max_date")

但上面的代码无效。

0 个答案:

没有答案