Spark:在Scala中使用带有ListBuffer的cogroup时出现内存问题(超出GC开销限制)

时间:2015-07-26 21:47:00

标签: java scala apache-spark scala-2.10 listbuffer

我有以下代码:

 fTuple2.cogroup(gTuple2).flatMap { t =>

      val fList: ListBuffer[classF] = ListBuffer()
      val gList: ListBuffer[classG] = ListBuffer()

      while (t._2._2.iterator.hasNext) {
        gList.add(t._2._2.iterator.next)
      }

      val fIter = t._2._1.iterator
      while (fIter.hasNext) {
        val f = fIter.next
        val hn = f.getNum()

        //-----------------
        try {
          val gValue = FindGUtiltity.findBestG(hn, gList)
          f.setG(gValue)
        } catch {
          case e: Exception => println("exception caught: " + e);
        }
        fList.add(f)
      }
      fList
 }

并且在行:

gList.add(t._2._2.iterator.next)

我收到以下错误:

java.lang.OutOfMemoryError: GC overhead limit exceeded
    at scala.collection.generic.Growable$class.$plus$plus$eq(Growable.scala:48)
    at scala.collection.mutable.ListBuffer.$plus$plus$eq(ListBuffer.scala:176)
    at scala.collection.mutable.ListBuffer.$plus$plus$eq(ListBuffer.scala:45)
    at scala.collection.mutable.BufferLike$class.appendAll(BufferLike.scala:147)
    at scala.collection.mutable.AbstractBuffer.appendAll(Buffer.scala:48)
    at scala.collection.mutable.BufferLike$class.append(BufferLike.scala:142)
    at scala.collection.mutable.AbstractBuffer.append(Buffer.scala:48)
    at scala.collection.convert.Wrappers$MutableBufferWrapper.add(Wrappers.scala:80)

当gList大小为1时,它工作正常。但是如果平均gList大小为~5,则会发生内存问题。 classG的实例总数不是太大,因此总gList不应该太大。 gList实际上是否在Scala中重复了?有没有更好的方法在Scala中创建List?或者我应该在这里使用一些Java列表?

谢谢!

1 个答案:

答案 0 :(得分:1)

只要至少有一个要迭代的元素,你的while循环就永远不会结束,因为你每次都要请求一个新的迭代器,每次都得到第一个元素,把它添加到一个打破内存的列表中。 / p>

这就是为什么(基于你的评论)只获得一次迭代器并将其分配给val解决了它。