使用collect_set进行Hive查询

时间:2017-03-20 06:09:04

标签: sql hadoop hive apache-spark-sql hiveql

我有2个表,sample_table1有两列,如下所示

C1  C2
001  a
001  b
001  e
002  c
002  b
003  a
003  c

sample_table2有两列

C3  C4
a   0
b   1
c   0
d   1
e   0

我希望得到像

这样的输出
F1    F2
001    1    <as 001 -> [a, b, e] -> [0, 1, 0] -> 1 (if one of the items in the collection ([a, b, e] in this case) is 1, then Column F2 should be 1 )>
002    1    <as 002 -> [c, b] -> [0, 1] -> 1>
003    0    <as 003 -> [a, c] -> [0, 0] -> 0>

我尝试使用Hive构建的聚合函数collect_set,但无法解决它。我想知道如果不写任何自定义UDF我能做到吗?

1 个答案:

答案 0 :(得分:2)

无需collect_set

select      t1.c1       as f1
           ,max(t2.c4)  as f2

from                sample_table1 t1
            join    sample_table2 t2
            on      t1.c2 = t2.c3

group by    t1.c1      
;
+-----+----+
| f1  | f2 |
+-----+----+
| 001 |  1 |
| 002 |  1 |
| 003 |  0 |
+-----+----+