标签: apache-spark apache-kafka spark-streaming
我有一个长期的spark结构流工作,可以读取有关Kafka主题的数据。我正在使用s3作为kafka检查点存储。它运作良好。但是,我看到在s3存储桶中为偏移量和提交信息创建了很多文件。是否有一些保留配置,可以自动清除旧的检查点文件?还是我需要手动清理文件。谢谢!