如何使用Spark从HDFS加载多个文件

时间:2019-02-20 22:03:33

标签: apache-spark

我尝试使用以下代码从HDFS加载多个文件:

val data = spark
.read
.option("header", "true")
.option("mergeSchema","true")
.format("parquet")
.load("data/day=1/att=2/*,data/day=1/att=3/*,data/day=1/att=4/*")

我得到一个例外:

    org.apache.spark.sql.AnalysisException: 
Path does not exist: hdfs://user/ccc/data/day=1/att=2/*,data/day=1/att=3/*,data/day=1/att=4/*

如何从hdfs加载多个文件?

1 个答案:

答案 0 :(得分:0)

您需要将每个文件名分别用引号引起来。以下应该起作用:

// where "123" is the user you want to check against
$user = App\User::find(123);

if(!$user->can('update', $post) {
    throw new \Illuminate\Auth\Access\AuthorizationException;
}