Scala Spark - 如何迭代Dataframe中的字段

时间:2017-03-17 09:45:25

标签: scala apache-spark dataframe

我的Dataframe有几个不同类型的列(字符串,双精度,地图,数组等)。

我需要在某些列类型中执行某些操作,我正在寻找一种很好的方法来识别字段类型然后执行正确的操作

类型:String|Double|Map<String,Int>|...

|---------------------------------------------------------------
|myString1 |myDouble1|     myMap1                   | ...otherTypes                          
|---------------------------------------------------------------
|"string_1"|  123.0  |{"str1Map":1,"str2":2, "str31inmap": 31} |...
|"string_2"|  456.0  |{"str2Map":2,"str22":2, "str32inmap": 32}|...
|"string_3"|  789.0  |{"str3Map":3,"str23":2, "str33inmap": 33}|...
|---------------------------------------------------------------

迭代数据框字段并打印:df.schema.fields.foreach { println }

输出:

StructField(myString1,StringType,true)
StructField(myDouble1,DoubleType,false)
StructField(myMap1,MapType(StringType,IntType,false),true)
...
StructField(myStringList,ArrayType(StringType,true),true)

所以,我的想法是遍历字段,如果是我需要执行操作的类型之一(例如,在Map类型上),那么我知道字段名称/列和要采取的操作。 / p>

 df.schema.fields.foreach { f =>
     val fName = ?get the name
     val fType = ?get the Type
     print("Name{} Type:{}".format(fName , fType))

      // case type is Map do action X
      // case type is Stringdo action Y
      // ...

    }

这种方法是否有意义检测我的数据帧上的字段类型,然后根据其类型在df字段上执行不同的操作? 如何让它工作?

1 个答案:

答案 0 :(得分:3)

请注意,scala中的print格式需要%s,在python中你可以使用{}

这应该有效:

 df.dtypes.foreach {  f =>
      val fName = f._1
      val fType = f._2
      if (fType  == "StringType") { println(s"STRING_TYPE") }
      if (fType  == "MapType") { println(s"MAP_TYPE") }
      //else {println("....")}
      println("Name %s Type:%s - all:%s".format(fName , fType, f))

    }