标签: apache-spark apache-storm spark-streaming
Spark流基本上是微批。这意味着它将定期运行以在该间隔期间处理一批数据。
像Storm这样的其他流计算引擎可以通过事件触发。这意味着当某些数据到来时(事件发生),数据将立即处理。
我想知道为什么Spark Stream不能这样做?例如,一些数据到来,然后火花流立即将其转换为RDD并对其进行计算。难吗?或者没有意义?为什么要等待一段时间(间隔)然后一起处理数据。