写入csv文件spark时,时间戳会更改格式

时间:2017-03-02 08:36:43

标签: scala apache-spark apache-spark-sql

大家好我想将数据帧保存到包含时间戳的csv文件中。 此列更改了csv文件中编写的格式一的问题,这是我使用的代码

    val spark = SparkSession.builder.master("local").appName("my-spark-app").getOrCreate()

    val df = spark.read.option("header",true).option("inferSchema", "true").csv("C:/Users/mhattabi/Desktop/dataTest2.csv")
    //val df = spark.read.option("header",true).option("inferSchema", "true").csv("C:\\dataSet.csv\\datasetTest.csv")
    //convert all column to numeric value in order to apply aggregation function 
    df.columns.map { c  =>df.withColumn(c, col(c).cast("int")) }
    //add a new column inluding the new timestamp column
    val result2=df.withColumn("new_time",((unix_timestamp(col("time"))/300).cast("long") * 300).cast("timestamp")).drop("time")
    val finalresult=result2.groupBy("new_time").agg(result2.drop("new_time").columns.map((_ -> "mean")).toMap).sort("new_time") //agg(avg(all columns..)
   finalresult.coalesce(1).write.option("header",true).option("inferSchema","true").csv("C:/mydata.csv")

通过df.show显示时,它会输出正确的格式enter image description here

但在csv文件中它采用这种格式 enter image description here

任何帮助,谢谢

2 个答案:

答案 0 :(得分:2)

使用选项将时间戳格式化为您需要的时间戳:

finalresult.coalesce(1).write.option("header",true).option("inferSchema","true").option("dateFormat", "yyyy-MM-dd HH:mm:ss").csv("C:/mydata.csv")

finalresult.coalesce(1).write.format("csv").option("delimiter", "\t").option("header",true).option("inferSchema","true").option("dateFormat", "yyyy-MM-dd HH:mm:ss").option("escape", "\\").save("C:/mydata.csv")

答案 1 :(得分:0)

这是对我有用的用于修改时间戳的CSV输出格式的代码段。

我在那里需要一个'T'字符,并且没有秒或微秒。 timestampFormat 选项确实可以解决此问题。

nodedemon

例如webpack --watch

如果用空格代替“ T”,则会得到以下信息:

DF.write
.mode(SaveMode.Overwrite)
.option("timestampFormat", "yyyy-MM-dd'T'HH:mm")

例如2017-02-20T06:53