将地图的Java列表转换为Scala中的Spark DataFrame

时间:2019-03-20 01:17:49

标签: scala apache-spark dataframe

我在 java

中有一个列表
List<Map<String,Object>> list=new ArrayList<>();
Map<String, Object> map=new HashMap<String, Object>();
map.put("id", 1);
map.put("name","tom");
list.add(map);

我想将其转换为 scala 的Spark Dataframe,如何实现?

我的真实情况是使用mybatis代替spark jdbc,因为我认为spark不使用池,所以我获取了mybatis的数据列表,并将其转换为spark Dataframe进行计算。

我知道我可以将scala Seq转换为Datafame:

 Seq((1)).toDF("id")

,并且还知道如何将Java List<String>转换为scala Seq 但是我不知道如何转换Java List<Map<String,Object>>

1 个答案:

答案 0 :(得分:-1)

列出到Df:

DataFrame df = sqc.createDataset(data,Encoders.STRING())。toDF();