连接类型是否定义为Apache Spark中可访问的常量?

时间:2018-03-27 17:24:02

标签: scala apache-spark apache-spark-sql

在粗略看一下Spark代码库之后,我还没有找到它们。在大多数文档和教程示例中,人们似乎都在使用“裸体”和“#39;字符串文字以指定连接类型。 Spark是否提供了一个定义" leftouter"," inner"," cartesian"等公共 val ,还是依赖于字符串文字只是约定?

也就是说,是否有替代方案:

dataframe.join(
  right = anotherDataFrame,
  joinExprs = expr("1 = 1"),
  joinType = "leftouter"
)

看起来像是:

dataframe.join(
  right = anotherDataFrame, 
  joinExprs = expr("1 = 1"),
  joinType = SparkJoins.LeftOuter
)

0 个答案:

没有答案