标签: scala apache-spark io spark-streaming
背景是我们需要读取用作全局配置的文件进行数据计算,文件每小时都会更改一次,因此需要重新加载文件。我们的困惑是如何重新加载配置,如果' for-loop'如果火花引擎可以独立完成,那么如何通知主进程文件正在改变?示例代码如下:
BonusService
提前感谢解决方案。
答案 0 :(得分:0)
如果更新此资源以进行数据处理至关重要,则在实际处理之前,从每个批次的一个地方(可以是HDFS,S3或任何其他可从所有执行程序访问的存储)加载。