A
将应用程序提交到我的Spark集群,但是分配给我的应用程序的资源与我指定的参数不一致。spark-submit
模式更改为client
时,我得到的只有更少,例如9个容器,9个内核和45056MB RAM(大约44GB)。我在显示应用程序信息的cluster
页上找到了此信息。我还交叉引用了cluster:8088
的“执行者”标签,其中显示了spark应用程序的执行者信息。spark:4044
spark-submit --master yarn --deploy-mode client --class "$1" target/scala-2.10/recommend-assembly-0.1.jar --executor-cores 8 --num-executor 15 --driver-memory 19g
更改为client
时,分配的资源就更少了。cluster
中的设置后,它无济于事。答案 0 :(得分:0)
我认为您应该了解纱线上的火花的知识,包括容器,工作台,AM等