使用新线条在Scala Play20中使用BodyParser解析文件

时间:2012-06-13 15:08:10

标签: parsing scala buffer playframework-2.0

请原谅这个问题的n00bness,但我有一个Web应用程序,我想将一个可能很大的文件发送到服务器并让它解析格式。我正在使用Play20框架,而且我是Scala的新手。

例如,如果我有一个csv,我想用“,”分隔每一行,并最终为每个字段创建一个List[List[String]]

目前,我认为最好的方法是使用BodyParser(但我可能错了)。我的代码看起来像:

Iteratee.fold[String, List[List[String]]]() {
  (result, chunk) =>
    result = chunk.splitByNewLine.splitByDelimiter // Psuedocode
}

我的第一个问题是,我如何处理下面一个块在一行中间分割的情况:

Chunk 1:
1,2,3,4\n
5,6

Chunk 2:
7,8\n
9,10,11,12\n

我的第二个问题是,写我自己的BodyParser是正确的方法吗?有没有更好的方法来解析这个文件?我主要担心的是我想允许文件非常大,所以我可以在某个时刻刷新缓冲区而不是将整个文件保存在内存中。

2 个答案:

答案 0 :(得分:10)

如果你的csv不包含转义的换行符,那么在不将整个文件放入内存的情况下进行渐进式解析非常容易。 iteratee库在play.api.libs.iteratee.Parsing内有一个方法搜索:

def search (needle: Array[Byte]): Enumeratee[Array[Byte], MatchInfo[Array[Byte]]]

会将您的信息流划分为Matched[Array[Byte]]Unmatched[Array[Byte]]

然后你可以组合第一个带有标题的iteratee和另一个将折叠成umatched结果的iteratee。这应该类似于以下代码:

// break at each match and concat unmatches and drop the last received element (the match)
val concatLine: Iteratee[Parsing.MatchInfo[Array[Byte]],String] = 
  ( Enumeratee.breakE[Parsing.MatchInfo[Array[Byte]]](_.isMatch) ><>
    Enumeratee.collect{ case Parsing.Unmatched(bytes) => new String(bytes)} &>>
    Iteratee.consume() ).flatMap(r => Iteratee.head.map(_ => r))

// group chunks using the above iteratee and do simple csv parsing
val csvParser: Iteratee[Array[Byte], List[List[String]]] =
  Parsing.search("\n".getBytes) ><>
  Enumeratee.grouped( concatLine ) ><>
  Enumeratee.map(_.split(',').toList) &>>
  Iteratee.head.flatMap( header => Iteratee.getChunks.map(header.toList ++ _) )

// an example of a chunked simple csv file
val chunkedCsv: Enumerator[Array[Byte]] = Enumerator("""a,b,c
""","1,2,3","""
4,5,6
7,8,""","""9
""") &> Enumeratee.map(_.getBytes)

// get the result
val csvPromise: Promise[List[List[String]]] = chunkedCsv |>>> csvParser

// eventually returns List(List(a, b, c),List(1, 2, 3), List(4, 5, 6), List(7, 8, 9))

当然,您可以改进解析。如果您这样做,我将不胜感激,如果您与社区分享。

所以你的Play2控制器会是这样的:

val requestCsvBodyParser = BodyParser(rh => csvParser.map(Right(_)))

// progressively parse the big uploaded csv like file
def postCsv = Action(requestCsvBodyParser){ rq: Request[List[List[String]]] => 
  //do something with data
}

答案 1 :(得分:1)

如果您不介意在内存中保持两倍大小的List[List[String]],那么您可以使用play.api.mvc.BodyParsers.parse.tolerantText之类的正文解析器:

def toCsv = Action(parse.tolerantText) { request =>
  val data = request.body
  val reader = new java.io.StringReader(data)
  // use a Java CSV parsing library like http://opencsv.sourceforge.net/
  // to transform the text into CSV data
  Ok("Done")
}

请注意,如果您想减少内存消耗,我建议您使用Array[Array[String]]Vector[Vector[String]],具体取决于您是否要处理可变或不可变数据。

如果您正在处理真正大量的数据(或丢失中等数据请求)并且您的处理可以逐步完成,那么您可以查看滚动您自己的身体解析器。该主体解析器不会生成List[List[String]],而是在它们到来时解析行并将每行折叠为增量结果。但这样做要复杂得多,特别是如果您的CSV使用双引号来支持带逗号,换行符或双引号的字段。