Spark SQL:Catalyst正在扫描不需要的列

时间:2016-11-24 10:17:42

标签: scala apache-spark apache-spark-sql spark-dataframe

我有两种情况如下所示:

scala> val dfA = sqlContext.read.parquet("/home/mohit/ruleA")
dfA: org.apache.spark.sql.DataFrame = [aid: int, aVal: string]

scala> val dfB = sqlContext.read.parquet("/home/mohit/ruleB")
dfB: org.apache.spark.sql.DataFrame = [bid: int, bVal: string]

scala> dfA.registerTempTable("A")

scala> dfB.registerTempTable("B")

1.Left加入WHERE中的过滤器

sqlContext.sql("select A.aid, B.bid from A left join B on A.aid=B.bid where B.bid<2").explain

== Physical Plan ==
Project [aid#15,bid#17]
+- Filter (bid#17 < 2)
   +- BroadcastHashOuterJoin [aid#15], [bid#17], LeftOuter, None
      :- Scan ParquetRelation[aid#15,aVal#16] InputPaths: file:/home/mohit/ruleA
      +- Scan ParquetRelation[bid#17,bVal#18] InputPaths: file:/home/mohit/ruleB

2。在ON中加入过滤器

sqlContext.sql("select A.aid, B.bid from A left join B on A.aid=B.bid and B.bid<2").explain

== Physical Plan ==
Project [aid#15,bid#17]
+- BroadcastHashOuterJoin [aid#15], [bid#17], LeftOuter, None
   :- Scan ParquetRelation[aid#15] InputPaths: file:/home/mohit/ruleA
   +- Filter (bid#17 < 2)
      +- Scan ParquetRelation[bid#17] InputPaths: file:/home/mohit/ruleB, PushedFilters: [LessThan(bid,2)]

问题

在任何一种情况下,Catalyst都有来自表B的信息,只需要B.bid(出价#17)。为什么WHERE案例中需要进行全表扫描。表B的projection列是隐式和确定性的。

注意:这是生产问题中的一个淡化示例。 Spark版本 - 1.6.2。

1 个答案:

答案 0 :(得分:0)

我在JIRA-18642的Spark上提出了这个问题。这是Spark 1.6中的一个真正的错误。