使用两种不同的主体与Kafka进行Spark交互

时间:2019-03-13 12:31:27

标签: apache-spark apache-kafka spark-streaming-kafka

我有以下问题。 我正在使用一个Spark结构化流作业,该作业从一个主题读取并写入同一kerberized Kafka集群的另一个主题。一切都超级好。

但是我的问题是以下几点:对于这两个主题中的每个主题,我如何处理不同的主体和密钥表。

  • 是否应该向Spark提交两个JAAS文件(每个主体/密钥表一个)?如果是,该如何实现?
  • 我可以将两个“ KafkaClient”声明都放入一个JAAS文件中吗?

非常感谢您。

0 个答案:

没有答案