标签: scala exception-handling apache-flink
在我的flink工作中,有一个特定的任务“GroupReduce”涉及可能遇到超时异常的外部系统(在这种情况下为elasticsearch)。
没有使用简单的try和catch,因为我不想在发生错误时跳过groupreduce任务。
有一种方法,一旦发现异常,通知flink重复这个子任务延迟T毫秒? 或类似的东西。