Spark 1.6在数据帧中加载特定分区,保留分区字段

时间:2017-03-16 19:28:11

标签: java apache-spark spark-dataframe spark-avro

我们有一个像这样分区的avro:

table
--a=01
--a=02

我们希望从单个分区加载数据,保留分区列a。 我找到了this stackoverflow question并且我应用了建议的代码段:

DataFrame df = hiveContext.read().format(format).
option("basePath", "path/to/table/").
load("path/to/table/a=01")

但是当我尝试阅读字段 a 时,它说:

org.apache.spark.sql.AnalysisException: cannot resolve 'a' given input columns: [b, c, d]

是否可以在Spark Java API 1.6中使用?

1 个答案:

答案 0 :(得分:0)

简单来说,答案是......不,这是不可能的。