我是Spark的新手,并不知道有任何其他更好的方法。我想在下面的数据框架上执行INNER连接。
data_frame_1 :
col1 : Int,
col2 : String,
col3 : Map(Int, Map(Int,Double))
data_frame_2 :
col1 : Int,
col2 : String,
col3 : Int
例如:
data_frame_1 :
col1 : 99999,
col2 : AAAAA,
col3 : Map(4,Map(2, 0.002))
data_frame_2 :
col1 : 99999,
col2 : AAAAA,
col3 : 4
我想在两个数据框中加入4
。如何以这种方式加入col3。
(data_frame_1.join(data_frame_2, data_frame_1.col("col1") === data_frame_2.col("col1") && data_frame_1.col("col2") === data_frame_2.col("col2")
&& data_frame_1.????? === data_frame_2.col("col3") ) )
加入后的预期行:[99999, AAAAA, Map(4,Map(2, 0.002)), 99999, AAAAA]