我是Scala的新手。我正在尝试使用sparkJob将输出写入文件。生成的文件具有以下模式。
id1, WrappedArray(id2, id3)
。
但是,我希望输出以以下方式进行。
id1,id2,id3。
我有一个case类,它将我的dataStructure定义为
case class MyMap(key1: String, ids: List[String])
代码片段如下。
DataSerializationUtils.saveAsTabSepFiles(
"keyswithIds",
myMap.toDF,
outputFolder,
clusterLogger)