使用数据类型map <string,bigint>在Spark

时间:2018-03-04 07:19:35

标签: apache-spark spark-dataframe rdd

我有一个文件,即file1snappy.parquet。它有一个复杂的数据结构,如地图,里面的数组。经过处理,我得到了最终的结果。当写入结果到csv我收到一些错误说

"Exception in thread "main" java.lang.UnsupportedOperationException: CSV data source does not support map<string,bigint> data type."

我使用过的代码:

val conf=new SparkConf().setAppName("student-example").setMaster("local")
    val sc = new SparkContext(conf)
    val sqlcontext = new org.apache.spark.sql.SQLContext(sc)
    val datadf = sqlcontext.read.parquet("C:\\file1.snappy.parquet")
    def sumaggr=udf((aggr: Map[String, collection.mutable.WrappedArray[Long]]) => if (aggr.keySet.contains("aggr")) aggr("aggr").sum else 0)
datadf.select(col("neid"),sumaggr(col("marks")).as("sum")).filter(col("sum") =!= 0).show(false)
    datadf.write.format("com.databricks.spark.csv").option("header", "true").save("C:\\myfile.csv")

我尝试转换datadf.toString(),但我仍面临同样的问题。 如何将结果写入CSV。

1 个答案:

答案 0 :(得分:3)

Spark CSV源仅支持原子类型。您不能存储任何非原子

的列

我认为最好是为map<string,bigint>作为数据类型的列创建一个JSON,并将其保存在csv中,如下所示。

import spark.implicits._ 
import org.apache.spark.sql.functions._

datadf.withColumn("column_name_with_map_type", to_json(struct($"column_name_with_map_type"))).write.csv("outputpath")

希望这有帮助!