我在 java
中有一个列表List<Map<String,Object>> list=new ArrayList<>();
Map<String, Object> map=new HashMap<String, Object>();
map.put("id", 1);
map.put("name","tom");
list.add(map);
我想将其转换为 scala 的Spark Dataframe,如何实现?
我的真实情况是使用mybatis代替spark jdbc,因为我认为spark不使用池,所以我获取了mybatis的数据列表,并将其转换为spark Dataframe进行计算。
我知道我可以将scala Seq转换为Datafame:
Seq((1)).toDF("id")
,并且还知道如何将Java List<String>
转换为scala Seq
但是我不知道如何转换Java List<Map<String,Object>>
答案 0 :(得分:-1)
列出到Df:
DataFrame df = sqc.createDataset(data,Encoders.STRING())。toDF();