如何从流程中创建递归生成值的akka​​流源?

时间:2018-07-29 10:24:28

标签: scala akka-stream

我需要遍历形状像树的API。例如,目录结构或讨论线程。可以通过以下流程对其进行建模:

type ItemId = Int
type Data = String
case class Item(data: Data, kids: List[ItemId])

def randomData(): Data = scala.util.Random.alphanumeric.take(2).mkString 

// 0 => [1, 9]
// 1 => [10, 19]
// 2 => [20, 29]
// ...
// 9 => [90, 99]
// _ => []
// NB. I don't have access to this function, only the itemFlow.
def nested(id: ItemId): List[ItemId] =
  if (id == 0) (1 to 9).toList
  else if (1 <= id && id <= 9) ((id * 10) to ((id + 1) * 10 - 1)).toList
  else Nil

val itemFlow: Flow[ItemId, Item, NotUsed] = 
  Flow.fromFunction(id => Item(randomData, nested(id)))

如何遍历此数据?我做了以下工作:

import akka.NotUsed
import akka.actor.ActorSystem
import akka.stream._
import akka.stream.scaladsl._

import scala.concurrent.Await
import scala.concurrent.duration.Duration

implicit val system = ActorSystem()
implicit val materializer = ActorMaterializer()

val loop = 
  GraphDSL.create() { implicit b =>
    import GraphDSL.Implicits._

    val source = b.add(Flow[Int])
    val merge  = b.add(Merge[Int](2))
    val fetch  = b.add(itemFlow) 
    val bcast  = b.add(Broadcast[Item](2))

    val kids   = b.add(Flow[Item].mapConcat(_.kids))
    val data   = b.add(Flow[Item].map(_.data))

    val buffer = Flow[Int].buffer(100, OverflowStrategy.dropHead)

    source ~> merge ~> fetch           ~> bcast ~> data
              merge <~ buffer <~ kids  <~ bcast

    FlowShape(source.in, data.out)
  }

val flow = Flow.fromGraph(loop)


Await.result(
  Source.single(0).via(flow).runWith(Sink.foreach(println)),
  Duration.Inf
)

system.terminate()

但是,由于我使用的是带有缓冲区的流,因此Stream永远不会完成。

  

在上游完成并耗尽缓冲元素时完成

Flow.buffer

我多次阅读Graph cycles, liveness, and deadlocks部分,但仍在努力寻找答案。

这将创建活动锁:

import java.util.concurrent.atomic.AtomicInteger

def unfold[S, E](seed: S, flow: Flow[S, E, NotUsed])(loop: E => List[S]): Source[E, NotUsed] = {
  // keep track of how many element flows, 
  val remaining = new AtomicInteger(1) // 1 = seed

  // should be > max loop(x)
  val bufferSize = 10000

  val (ref, publisher) =
    Source.actorRef[S](bufferSize, OverflowStrategy.fail)
      .toMat(Sink.asPublisher(true))(Keep.both)
      .run()

  ref ! seed

  Source.fromPublisher(publisher)
    .via(flow)
    .map{x =>
      loop(x).foreach{ c =>
        remaining.incrementAndGet()
        ref ! c
      }
      x
    }
    .takeWhile(_ => remaining.decrementAndGet > 0)
}

编辑:我添加了一个git repo来测试您的解决方案https://github.com/MasseGuillaume/source-unfold

3 个答案:

答案 0 :(得分:5)

未完成的原因

我不认为导致流未完成的原因不是由于“使用带有缓冲区的流”。类似于this question的实际原因是,与默认参数eagerClose=False的合并正在sourcebuffer上等待其完成(合并)完成。但是缓冲区正在等待合并完成。因此,合并正在等待缓冲区,而缓冲区正在等待合并。

渴望关闭合并

您可以在创建合并时设置eagerClose=True。但是不幸的是,使用渴望关闭可能导致某些子ItemId值从未被查询。

间接解决方案

如果为树的每个级别实现新的流,则可以将递归提取到该流的外部。

您可以使用itemFlow来构建查询功能:

val itemQuery : Iterable[ItemId] => Future[Seq[Data]] = 
  (itemIds) => Source.apply(itemIds)
                     .via(itemFlow)
                     .runWith(Sink.seq[Data])

此查询函数现在可以包装在递归辅助函数中:

val recQuery : (Iterable[ItemId], Iterable[Data]) => Future[Seq[Data]] = 
  (itemIds, currentData) => itemQuery(itemIds) flatMap { allNewData =>
      val allNewKids = allNewData.flatMap(_.kids).toSet

      if(allNewKids.isEmpty)
        Future.successful(currentData ++ allNewData)
      else
        recQuery(allNewKids, currentData ++ data)
  }

创建的流的数量将等于树的最大深度。

不幸的是,由于涉及期货,因此此递归函数不是尾递归,如果树太深,可能会导致“堆栈溢出”。

答案 1 :(得分:3)

我通过编写自己的GraphStage解决了这个问题。

import akka.NotUsed
import akka.stream._
import akka.stream.scaladsl._
import akka.stream.stage.{GraphStage, GraphStageLogic, OutHandler}

import scala.concurrent.ExecutionContext

import scala.collection.mutable
import scala.util.{Success, Failure, Try}

import scala.collection.mutable

def unfoldTree[S, E](seeds: List[S], 
                     flow: Flow[S, E, NotUsed],
                     loop: E => List[S],
                     bufferSize: Int)(implicit ec: ExecutionContext): Source[E, NotUsed] = {
  Source.fromGraph(new UnfoldSource(seeds, flow, loop, bufferSize))
}

object UnfoldSource {
  implicit class MutableQueueExtensions[A](private val self: mutable.Queue[A]) extends AnyVal {
    def dequeueN(n: Int): List[A] = {
      val b = List.newBuilder[A]
      var i = 0
      while (i < n) {
        val e = self.dequeue
        b += e
        i += 1
      }
      b.result()
    }
  }
}

class UnfoldSource[S, E](seeds: List[S],
                         flow: Flow[S, E, NotUsed],
                         loop: E => List[S],
                         bufferSize: Int)(implicit ec: ExecutionContext) extends GraphStage[SourceShape[E]] {

  val out: Outlet[E] = Outlet("UnfoldSource.out")
  override val shape: SourceShape[E] = SourceShape(out)

  override def createLogic(inheritedAttributes: Attributes): GraphStageLogic = new GraphStageLogic(shape) with OutHandler {  
    // Nodes to expand
    val frontier = mutable.Queue[S]()
    frontier ++= seeds

    // Nodes expanded
    val buffer = mutable.Queue[E]()

    // Using the flow to fetch more data
    var inFlight = false

    // Sink pulled but the buffer was empty
    var downstreamWaiting = false

    def isBufferFull() = buffer.size >= bufferSize

    def fillBuffer(): Unit = {
      val batchSize = Math.min(bufferSize - buffer.size, frontier.size)
      val batch = frontier.dequeueN(batchSize)
      inFlight = true

      val toProcess =
        Source(batch)
          .via(flow)
          .runWith(Sink.seq)(materializer)

      val callback = getAsyncCallback[Try[Seq[E]]]{
        case Failure(ex) => {
          fail(out, ex)
        }
        case Success(es) => {
          val got = es.size
          inFlight = false
          es.foreach{ e =>
            buffer += e
            frontier ++= loop(e)
          }
          if (downstreamWaiting && buffer.nonEmpty) {
            val e = buffer.dequeue
            downstreamWaiting = false
            sendOne(e)
          } else {
            checkCompletion()
          }
          ()
        }
      }

      toProcess.onComplete(callback.invoke)
    }
    override def preStart(): Unit = {
      checkCompletion()
    }

    def checkCompletion(): Unit = {
      if (!inFlight && buffer.isEmpty && frontier.isEmpty) {
        completeStage()
      }
    } 

    def sendOne(e: E): Unit = {
      push(out, e)
      checkCompletion()
    }

    def onPull(): Unit = {
      if (buffer.nonEmpty) {
        sendOne(buffer.dequeue)
      } else {
        downstreamWaiting = true
      }

      if (!isBufferFull && frontier.nonEmpty) {
        fillBuffer()
      }
    }

    setHandler(out, this)
  }
}

答案 2 :(得分:-1)

啊,阿卡河流水带来的欢乐。我遇到了一个非常相似的问题,因此以一种非常棘手的方式解决了。可能会对您有帮助。

棘手的解决方案:

  // add a graph stage that will complete successfully if it sees no element within 5 seconds
  val timedStopper = b.add(
    Flow[Item]
      .idleTimeout(5.seconds)
      .recoverWithRetries(1, {
        case _: TimeoutException => Source.empty[Item]
      }))

  source ~> merge ~> fetch ~> timedStopper ~> bcast ~> data
  merge <~ buffer <~ kids <~ bcast

这是在最后一个元素通过timedStopper阶段后5秒钟,该阶段成功完成了流。这可以通过使用idleTimeout来实现,它使流以TimeoutException失败,然后使用recoverWithRetries将失败转换为成功完成。 (我确实提到它很hacky)。

如果元素之间的间隔可能超过5秒,或者在“实际”完成流和Akka接听流之间承受不起长时间的等待,则这显然不适合。值得庆幸的是,我们都不必担心,在这种情况下,它实际上运行得很好!

非骇客解决方案

不幸的是,我想到不通过超时进行欺骗的唯一方法非常非常复杂。

基本上,您需要能够跟踪两件事:

  • 缓冲区中是否还有任何元素,或者是否正在发送到缓冲区中
  • 传入源是否打开

并且仅当这两个问题的答案均​​为 时,才完成流。本机Akka构建基块可能无法处理此问题。但是,自定义图形阶段可能会出现。一种选择是编写一个代替Merge的代码,并提供某种了解缓冲区内容的方式,或者可能使其跟踪接收到的ID和广播正发送到缓冲区的ID。问题在于自定义图阶段在最佳情况下编写起来并不是特别令人愉快,更不用说在这样的阶段混合逻辑时了。

警告

Akka流只是无法很好地与周期配合使用,尤其是它们如何计算完工率。因此,这可能不是您遇到的唯一问题。

例如,我们在结构上非常相似的一个问题是,将源失败视为流成功完成,并且成功实现了Future。问题在于,默认情况下,失败的阶段将使下游失败,但取消将其上游失败(这是这些阶段的成功完成)。对于像您这样的一个周期,结果是一场比赛,因为取消沿一个分支传播,而使另一个分支失败。您还需要检查接收器错误会发生什么情况;根据广播的取消设置,取消可能不会向上传播,并且信号源会很乐意继续提取元素。

最后一个选择:完全避免使用流处理递归逻辑。在一个极端情况下,如果您有任何办法编写单个尾部递归方法,一次提取所有嵌套项并将其放入Flow阶段,那将解决您的问题。另一方面,我们正在认真考虑为我们自己的系统进入Kafka排队。