我正在使用apache flink构建相当复杂的数据流网络。这个想法是,用flink实现一个规则引擎。
作为应用程序的基本描述,这就是它应该如何工作的:
kafka使用者源接收到数据,并使用许多数据流对其进行处理,直到最终将其发送到kafka生产者接收器为止。传入的数据包含带有逻辑键(“ object-id”)的对象,传入的消息可能引用相同的object-id。对于每个给定的对象ID,必须在整个应用程序中保留其传入消息的顺序。整体消息的顺序可以是任意的。
这意味着,必须按顺序处理object1的消息 a , b 和 c ,但是消息 x 可能在a1 / b1 / c1之间,之前或之后进行处理。
就我目前的理解而言,这意味着我必须keyBy(_.objectID)
,以使同一对象的消息按到达的顺序进行处理。
为实现实际的规则引擎,创建了流网络。这个想法如下:
.filter(_.matches(rule.condition))
创建原始流的子流substream1.connect(substream2).flatMap(new CombineFunction[MyObject](...))
组合与同一规则对应的所有子流connect
只能加入2个流,因此具有3个条件的规则将导致随后的2个加入这将导致加入 n 个流,其中 n 对应于规则数。加入的流将附加一个map
函数,以标记消息,以便我们知道规则匹配。
每个加入/结果流都可以将其结果(“匹配规则xyz”)独立于其他结果发布给kafka生产者,因此在这一点上,我可以将接收器附加到流中。
因为两个流(“条件”-子流)的.connect
仅必须传递一条消息,如果两个流都接收到该消息(^ =两个条件都匹配),我需要一个RichCoFlatMapFunction
密钥状态,可以处理“只有在另一侧已经收到通行证的情况”。
但是,问题在于流是由 object-id 设置键的。那么,如果同一对象的2条消息通过网络并到达.connect().map(new RichCoFlatMapFunction...)
,会发生什么?这将导致错误的输出。
进入网络后,我需要为每个传入消息分配一个唯一的ID(UUID),因此我可以在.connect().map()..
连接中使用此密钥(而不是object-id)。
但是同时,我需要使用object-id来对流进行键控,以便按顺序处理相同对象的消息。该怎么办?
为解决此问题,我将输入流保留为keyBy(_.objectID)
,但流联接中的RichCoFlatMapFunction
不再使用键控状态。取而代之的是,我使用一个简单的运算符状态,该状态保留了已传递对象的映射,但仅通过手动键/值查找即可实现相同的逻辑。
这个似乎可以工作,但是我不知道这是否会带来更多问题。
flink GUI将渲染此图像,以显示14条规则的列表,总共包含23个条件(某些规则只有一个条件):
使用以下代码实现网络的创建:
val streamCache = mutable.Map[Int,DataStream[WorkingMemory]]()
val outputNodesCache = ListBuffer[DataStream[WorkingMemory]]()
if (rules.isEmpty)
return
// create partial streams for all conditions (first level)
// cache the sub-stream with the hashcode of its condition as key (for re-use)
for (rule <- rules if rule.checks.nonEmpty ;
cond <- rule.checks if !streamCache.contains(cond.hashCode()))
streamCache += cond.hashCode -> sourceStream.filter(cond.matches _)
// create joined streams for combined conditions (sub-levels)
for (rule <- rules if rule.checks.nonEmpty)
{
val ruleName = rule.ruleID
// for each rule, starting with the rule with the least conditions ...
if (rule.checks.size == 1)
{
// ... create exit node if single-condition rule
// each exit node applies the rule-name to the objects set of matched rules.
outputNodesCache += streamCache(rule.checks.head.hashCode).map(obj => { obj.matchedRule = ListBuffer((ruleName, rule.objectType.mkString(":"), rule.statement)) ; obj })
}
else
{
// ... iterate all conditions, and join nodes into full rule-path (reusing existing intermediate paths)
var sourceStream:DataStream[WorkingMemory] = streamCache(rule.checks.head.hashCode)
var idString = rule.checks.head.idString
for (i <- rule.checks.indices)
{
if (i == rule.checks.size-1)
{
// reached last condition of rule, create exit-node
// each exit node applies the rule-name to the objects set of matched rules.
val rn = ruleName
val objectType = rule.objectType.mkString(":")
val statement = rule.statement
outputNodesCache += sourceStream.map(obj => { obj.matchedRule = ListBuffer((rn, objectType, statement)) ; obj })
}
else
{
// intermediate condition, create normal intermediate node
val there = rule.checks(i+1)
val connectStream = streamCache(there.hashCode)
idString += (":" + there.idString)
// try to re-use existing tree-segments
if (streamCache.contains(idString.hashCode))
sourceStream = streamCache(idString.hashCode)
else
sourceStream = sourceStream.connect(connectStream).flatMap(new StatefulCombineFunction(idString))
}
}
}
}
// connect each output-node to the sink
for (stream <- outputNodesCache)
{
stream.map(wm => RuleEvent.toXml(wm, wm.matchedRule.headOption)).addSink(sink)
}
上一个代码段中使用的StatefulCombineFunction
:
class StatefulCombineFunction(id:String) extends RichCoFlatMapFunction[WorkingMemory, WorkingMemory, WorkingMemory] with CheckpointedFunction
{
@transient
private var leftState:ListState[(String, WorkingMemory)] = _
private var rightState:ListState[(String, WorkingMemory)] = _
private var bufferedLeft = ListBuffer[(String, WorkingMemory)]()
private var bufferedRight = ListBuffer[(String, WorkingMemory)]()
override def flatMap1(xmlObject: WorkingMemory, out: Collector[WorkingMemory]): Unit = combine(bufferedLeft, bufferedRight, xmlObject, out, "left")
override def flatMap2(xmlObject: WorkingMemory, out: Collector[WorkingMemory]): Unit = combine(bufferedRight, bufferedLeft, xmlObject, out, "right")
def combine(leftState: ListBuffer[(String, WorkingMemory)], rightState: ListBuffer[(String, WorkingMemory)], xmlObject:WorkingMemory, out: Collector[WorkingMemory], side:String): Unit =
{
val otherIdx:Int = leftState.indexWhere(_._1 == xmlObject.uuid)
if (otherIdx > -1)
{
out.collect(leftState(otherIdx)._2)
leftState.remove(otherIdx)
}
else
{
rightState += ((xmlObject.uuid, xmlObject))
}
}
override def initializeState(context:FunctionInitializationContext): Unit = ???
override def snapshotState(context:FunctionSnapshotContext):Unit = ???
}
我知道缺少清除操作符状态中的部分匹配项(生存时间)的方法,但是这对于当前的开发状态并不重要,将在以后添加。
该应用程序应使用flink(https://en.wikipedia.org/wiki/Rete_algorithm)实现用于规则匹配的rete-algorithm。
另一种方法是只循环所有传入消息的所有规则,并附加结果。对于使用flink的这种方法,我有一个可行的实现,因此请不要将此作为解决方案。
问题是,应用程序在对象ID级别上弄乱了传入消息的顺序。也就是说,它没有达到我在简介中所要求的。对于每个对象ID,传入的消息必须保持顺序。但是事实并非如此。
我不知道命令在代码的哪一点弄乱了,或者这些操作如何在线程之间分配,所以我不知道如何解决这个问题。
答案 0 :(得分:0)
一些评论...