管理Kafka-Spark-Scala-Cassandra之间的版本冲突?

时间:2017-05-15 17:32:37

标签: apache-spark cassandra apache-kafka version

我最近一直致力于一个涉及 Kafka Spark Cassandra 整合的项目。在尝试完成所有设置时我注意到的关键事项之一是,为了使这些技术协同工作,需要非常仔细地匹配许多版本冲突。

此外,在编写自己的 Spark-Jobs 时,请注意与 Spark 一起使用的 Scala 版本。

上述技术之一的版本略有变化会破坏整个流程,并需要重新匹配它们。

任务不是很直接(至少对我来说,我猜这对所有人来说都是一样的)和我想知道那些拥有这些技术同步工作的公司如何实际管理这个? < / p>

正如我所看到的,新版本和错误修复的推出是一个重要问题,以保持这些工具不间断地协同工作。

对此有经验的人能否了解公司如何实际管理/维护这些冲突?

或者说这是一个实际问题,这是否夸大其词?

提前致谢

0 个答案:

没有答案