我们正在使用Heat + Kubernetes(V0.19)来管理我们的应用。滚动更新时,有时容器凝视将始终在节点上失败,但节点上的kubelet将始终重试但始终失败。所以更新将挂在那里,这不是我们期望的行为。
我发现使用“kubectl delete node”删除节点可以避免调度到该节点的pod。但是在我们的环境中,要删除的节点可能在其上运行了pod。
所以我的问题是: 使用“kubectl delete node”删除节点后,该节点上的pod是否仍能正常工作?
答案 0 :(得分:3)
如果您只想取消滚动更新,删除失败的pod并稍后再试,我发现最好使用CTRL+c
停止更新循环,然后删除与新版本对应的复制控制器失败的应用程序。
^C
kubectl delete replicationcontrollers your-app-v1.2.3