我读过一些文章,对Spark Stream,Storm和Flink等流处理引擎的性能进行基准测试。在评估部分,标准是第99百分位数和吞吐量。例如,Apache Kafka每秒发送大约100.000个事件的数据,这三个引擎充当流处理器,并使用99%的延迟和吞吐量来描述它们的性能。
有人可以为我澄清这两个标准吗?
答案 0 :(得分:1)
当应用程序开发人员期望一定的延迟时,他们通常需要 潜伏期我们测量流的几个延迟范围 记录分组作业,可通过网络对数据进行混洗。的 下图显示了观察到的中值潜伏期,以及 第90、95和99个百分位(延迟时间的99个百分位 例如,50毫秒表示99%的元素到达 在不到50毫秒的时间内结束管道。