Dataframe A(数百万条记录)其中一列是create_date,modified_date
Dataframe B 500记录有start_date和end_date
目前的做法:
Select a.*,b.* from a join b on a.create_date between start_date and end_date
以上查询在sparkSQL中执行笛卡尔积加入,需要永远完成。 我可以通过其他方式实现相同的功能。 我尝试播放较小的RDD
编辑:
spark version 1.4.1
No. of executors 2
Memmory/executor 5g
No. of cores 5