当我将群集大小1000的大小调整为0时,GKE节点在kubectl get节点结果

时间:2017-03-27 14:39:15

标签: kubernetes google-kubernetes-engine

请给我一个问题。 我正在使用基于GKE 1000节点构建的Locust Cluster(副本集:6400)。 Locust Cluster运行良好,但在停止此环境时存在一些问题。 当我试图通过以下命令停止时,我遇到了处于就绪状态的节点在kubectl get node上保持超过30分钟的问题。我认为这是一个问题,因为我无法轻松重启集群。

  

gcloud compute instance-groups managed resize gke-locust-xxxx --zone asia-east1-a --size 0

由于GKE,我无法看到主节点上发生了什么。有什么可能的原因吗?或者是这次需要kubernetes性能的规范。

1 个答案:

答案 0 :(得分:0)

  

...我遇到了处于就绪状态的节点仍然存在的问题   kubectl获取节点超过30分钟。

您是否在30分钟内观察了托管实例组中的虚拟机数量?他们所有人消失需要多长时间?如果从GKE集群中删除VM,则应在几分钟内将其从kubectl get nodes中删除,因此看起来缓慢可能是因为删除了VM本身。