标签: hadoop apache-spark cluster-computing
我正在管理一个火花星团,我有一个问题 在我的群集中,我有3个用户(userA,userB,userC)和80个内核,100G RAM ... 我想以这样的方式在用户之间拆分这些资源:
userA : can use 60% of ressources userB : can use 30% of ressources userC : can use 10% of ressources
你有什么想法怎么做吗? 最好的问候!