标签: hadoop apache-spark yarn kerberos impersonation
我有一个Spark应用程序,通过多个线程上的几个Spark会话,同时为不同的用户执行各种作业。
我的客户想要解决他的hadoop集群问题。我想知道是否有一种方法来配置模拟,例如这些作业中的每一个都将与不同的代理用户一起运行。 从我在spark conf和代码中看到的情况来看,它不可能在运行时为特定的上下文做到这一点,但我不熟悉Kerberos,也不熟悉Spark的这一部分。
任何人都可以确认/证实这一点吗?