我已使用头盔图表安装了Prometheus,因此列出了4个部署文件:
部署文件的所有Pod都在相应地运行。 我错误地使用以下命令重新启动了一个部署文件:
kubectl rollout restart deployment prometheus-alertmanager
现在正在创建一个新容器并使其崩溃,如果我删除部署文件,则以前的容器也将被删除。那我该为crashLoopBackOff吊舱做什么?
答案 0 :(得分:0)
您可以使用kubectl delete pod <pod_name>
命令简单地delete将该Pod或尝试通过以下方式删除处于crashLoopBackOff
状态的所有Pod:
kubectl delete pod `kubectl get pods | awk '$3 == "CrashLoopBackOff" {print $1}'`
确保将相应的部署设置为1个副本(或任何其他选择的编号)。如果删除该部署的Pod,它将在保持所需副本数的同时创建一个新Pod。
答案 1 :(得分:0)
这两个Pod(一个正在运行,另一个正在崩溃崩溃)属于不同的部署,因为它们带有不同的标记后缀,即:pod1-abc-123
和pod2-abc-456
属于同一部署模板,但是{ {1}}和pod1-abc-123
属于不同的部署。
部署将创建一个副本集,确保删除相应的旧副本pod2-def-566
并删除该副本集,类似于prometheus服务器之一。