Spark SQL和hivecontext问题

时间:2017-01-04 08:44:59

标签: scala apache-spark dataframe apache-spark-sql

我的hive表只需要前5个记录。我正在使用hivecontext选择前5个记录,注册为temptable,drop hive表,从temptable重新创建和插入记录。但最终没有在表格中记录。

val run_ids_for_5_min= hivecontext.sql("select distinct run_id, cast(run_id as bigint) rr from myTable order by rr desc limit 5")

run_ids_for_5_min.registerTempTable("memTBLrun_ids")

hivecontext.sql("drop table myTable")

hivecontext.sql(" create table myTable " +
      "(run_id string, SessionCount int, SampleTime timestamp,Program_ID int,Server_ID string, Service_ID int)" )

hivecontext.sql("insert into myTable " +
          " select run_id, sessionCount , SampleTime ,Program_ID ,Server_ID , Service_ID from memTBLrun_ids")

执行所有代码时没有错误,但没有记录插入mytable。如何解决这个问题。

感谢
侯塞因

0 个答案:

没有答案