Kubernetes Pod crashLoopBackOff,需要删除一个Pod

时间:2020-10-12 12:59:24

标签: kubernetes prometheus pod prometheus-alertmanager crashloopbackoff

我已使用头盔图表安装了Prometheus,因此列出了4个部署文件:

  • prometheus-alertmanager
  • prometheus-server
  • prometheus-pushgateway
  • prometheus-kube-state-metrics

部署文件的所有Pod都在相应地运行。 我错误地使用以下命令重新启动了一个部署文件:

kubectl rollout restart deployment prometheus-alertmanager

现在正在创建一个新容器并使其崩溃,如果我删除部署文件,则以前的容器也将被删除。那我该为crashLoopBackOff吊舱做什么?

Screenshot of kubectl output

2 个答案:

答案 0 :(得分:0)

您可以使用kubectl delete pod <pod_name>命令简单地delete将该Pod或尝试通过以下方式删除处于crashLoopBackOff状态的所有Pod:

kubectl delete pod `kubectl get pods | awk '$3 == "CrashLoopBackOff" {print $1}'`

确保将相应的部署设置为1个副本(或任何其他选择的编号)。如果删除该部署的Pod,它将在保持所需副本数的同时创建一个新Pod。

答案 1 :(得分:0)

这两个Pod(一个正在运行,另一个正在崩溃崩溃)属于不同的部署,因为它们带有不同的标记后缀,即:pod1-abc-123pod2-abc-456属于同一部署模板,但是{ {1}}和pod1-abc-123属于不同的部署。

部署将创建一个副本集,确保删除相应的旧副本pod2-def-566并删除该副本集,类似于prometheus服务器之一。