我们有一个数据管道系统
apache kafka ---->火花蒸煮-----> spark mlib
消耗的数据是时间序列数据(例如,每条记录的格式为[键,值,时间戳])
我们要监视每个键的时间序列异常(例如Twitter异常https://anomaly.io/anomaly-detection-twitter-r/)
即我们想对系统进行训练(针对每个键),并希望在线检测异常情况(例如,特定键在一天的特定时间内值范围超出正常范围)。
这可以用Apache Spark完成吗? k-means有帮助吗?我们可以有一个示例代码(标量代码)吗?是他们的任何框架或库吗?