如何使用Spark从DBFS目录中加载和处理多个csv文件

时间:2019-03-01 12:50:22

标签: scala csv apache-spark dataframe databricks

我想在从DBFS(Databricks FileSystem)读取的每个文件上运行以下代码。我对文件夹中的所有文件进行了测试,但是我想对文件夹中的每个文件进行类似的计算,一个接一个:

// a-e are calculated fields
val df2=Seq(("total",a,b,c,d,e)).toDF("file","total","count1","count2","count3","count4")

//schema is now an empty dataframe
val final1 = schema.union(df2)

有可能吗?我想从dbfs读取它也应该与我现在所做的有所不同:

val df1 = spark
      .read
      .format("csv")
      .option("header", "true")
      .option("delimiter",",")
      .option("inferSchema", "true")
      .load("dbfs:/Reports/*.csv")
      .select("lot of ids")

非常感谢您的创意:)

2 个答案:

答案 0 :(得分:2)

如上所述,这里有3个选项。

在我的示例中,我正在使用以下3个数据集:

+----+----+----+
|col1|col2|col3|
+----+----+----+
|1   |100 |200 |
|2   |300 |400 |
+----+----+----+

+----+----+----+
|col1|col2|col3|
+----+----+----+
|3   |60  |80  |
|4   |12  |100 |
|5   |20  |10  |
+----+----+----+

+----+----+----+
|col1|col2|col3|
+----+----+----+
|7   |20  |40  |
|8   |30  |40  |
+----+----+----+

首先创建架构(更快地显式定义架构,而不是对其进行推断):

import org.apache.spark.sql.types._

val df_schema =
  StructType(
    List(
        StructField("col1", IntegerType, true),
        StructField("col2", IntegerType, true),
        StructField("col3", IntegerType, true)))

选项1:

一次加载所有CSV:

val df1 = spark
      .read
      .option("header", "false")
      .option("delimiter", ",")
      .option("inferSchema", "false")
      .schema(df_schema)
      .csv("file:///C:/data/*.csv")

然后按文件名将逻辑应用于整个数据集分组。

前提条件 :您必须找到一种将文件名附加到每个文件的方法

选项2:

从目录加载csv文件。然后遍历文件并为每个csv创建一个数据框。在循环内部,将您的逻辑应用于每个csv。最后,在循环末尾将结果附加(联合)到第二个数据帧中,该第二个数据帧将存储您累积的结果。

注意:请注意,大量文件可能会导致非常大的DAG,进而导致庞大的执行计划,为避免这种情况,您可以保留当前结果或调用collect。在下面的示例中,我假设将对每个bufferSize迭代执行持久或收集。您可以根据csv文件的数量来调整甚至删除此逻辑。

这是第二个选项的示例代码:

import java.io.File
import org.apache.spark.sql.Row
import spark.implicits._

val dir = "C:\\data_csv\\"
val csvFiles = new File(dir).listFiles.filter(_.getName.endsWith(".csv"))

val bufferSize = 10
var indx = 0
//create an empty df which will hold the accumulated results
var bigDf = spark.createDataFrame(spark.sparkContext.emptyRDD[Row], df_schema)
csvFiles.foreach{ path => 
    var tmp_df = spark
                  .read
                  .option("header", "false")
                  .option("delimiter", ",")
                  .option("inferSchema", "false")
                  .schema(df_schema)
                  .csv(path.getPath)

    //execute your custom logic/calculations with tmp_df

    if((indx + 1) % bufferSize == 0){
        // If buffer size reached then
        // 1. call unionDf.persist() or unionDf.collect()
        // 2. in the case you use collect() load results into unionDf again 
    }

    bigDf = bigDf.union(tmp_df)
    indx = indx + 1
}
bigDf.show(false)

这应该输出:

+----+----+----+
|col1|col2|col3|
+----+----+----+
|1   |100 |200 |
|2   |300 |400 |
|3   |60  |80  |
|4   |12  |100 |
|5   |20  |10  |
|7   |20  |40  |
|8   |30  |40  |
+----+----+----+

选项3:

最后一个选择是使用内置spark.sparkContext.wholeTextFiles

这是将所有csv文件加载到RDD中的代码:

val data = spark.sparkContext.wholeTextFiles("file:///C:/data_csv/*.csv")
val df = spark.createDataFrame(data)

df.show(false)

输出:

+--------------------------+--------------------------+
|_1                        |_2                        |
+--------------------------+--------------------------+
|file:/C:/data_csv/csv1.csv|1,100,200                 |
|                          |2,300,400                 |
|file:/C:/data_csv/csv2.csv|3,60,80                   |
|                          |4,12,100                  |
|                          |5,20,10                   |
|file:/C:/data_csv/csv3.csv|7,20,40                   |
|                          |8,30,40                   |
+--------------------------+--------------------------+

spark.sparkContext.wholeTextFiles将返回键/值RDD,其中键是文件路径,值是文件数据。

这需要额外的代码来提取_2的内容,这是每个csv的内容。我认为这将涉及程序的性能和可维护性的开销,因此我会避免使用它。

让我知道您是否需要进一步的澄清

答案 1 :(得分:2)

我正在添加@Alexandros Biratsis提供的答案。 可以通过以下方式使用“第一种方法”:将文件名连接为同一数据框中包含多个文件中所有数据的单独列。

val df1 = spark  
      .read  
      .option("header", "false")  
      .option("delimiter", ",")  
      .option("inferSchema", "false")  
      .schema(df_schema)  
      .csv("file:///C:/data/*.csv")  
      .withColumn("FileName",input_file_name())

此处input_file_name()是将文件名添加到DataFrame中每一行的功能。这是spark中的内置函数。
要使用此功能,您需要导入以下名称空间。
导入org.apache.spark.sql.functions ._

可以在https://spark.apache.org/docs/1.6.0/api/java/org/apache/spark/sql/functions.html

上找到该功能的文档。

我建议不要使用@Alexandros Biratsis建议的第二种方法,即合并并持久保存临时数据帧,因为它适用于少量文件,但是随着文件数量的增加,它变得太慢,有时甚至变得超时,驱动程序意外关闭。

我要感谢Alexandros的回答,因为它为我提供了解决问题的方法。