环境:
$ k全部获得
NAME READY STATUS
RESTARTS AGE
pod/mysql-0 1/1 Running 0 72s
pod/nginx-ingress-microk8s-controller-c2pgz 0/1 CrashLoopBackOff 129 22h
pod/web-0 1/1 Running 0 78s
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service/kubernetes ClusterIP 10.152.183.1 <none> 443/TCP 70m
service/mysql-service ClusterIP None <none> 3306/TCP 72s
service/nginx-service ClusterIP None <none> 80/TCP 78s
NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE
daemonset.apps/nginx-ingress-microk8s-controller 1 1 0 1 0 <none> 2d22h
NAME DESIRED CURRENT AGE
statefulset.apps/mysql 1 1 72s
statefulset.apps/web 1 1 78s
/ var / log / syslog:
failed to load Kubelet config file /var/lib/kubelet/config.yaml, error failed to read kubelet config file "/var/lib/kubelet/config.yaml", error: open /var/lib/kubelet/config.yaml: no such file or directory
Error syncing pod f0ab0f74-e6f2-11e8-8410-482ae31e6a94 ("nginx-ingress-microk8s-controller-c2pgz_default(f0ab0f74-e6f2-11e8-8410-482ae31e6a94)"), skipping: failed to "StartContainer" for "nginx-ingress-microk8s" with CrashLoopBackOff: "Back-off 5m0s restarting failed container=nginx-ingress-microk8s pod=nginx-ingress-microk8s-controller-c2pgz_default(f0ab0f74-e6f2-11e8-8410-482ae31e6a94)"
什么是Nginx-ingress-microk8s-controller-c2pgz?谁开始的?
答案 0 :(得分:1)
您在评论中提到与kubeadm init
相关的原因失败。
仅在以下情况下填充/var/lib/kubelet/config.yaml
配置文件:
主节点中的集群初始化成功(kubeadmin init
。
在工作节点中-成功加入集群(kubeadm join
)之后。
因此,如果问题出在kubeadm init
上,则应检查命令的输出(如果可以将其粘贴到问题中,效果也很好)。
确保不要使用--ignore-preflight-errors=all
标志运行kubeadm init。
我不熟悉您的特定错误,但是为了使答案更有帮助-我将尝试提供一些可能的解决方案:
确保kubeadm的all requirements到位。
检查防火墙规则-确保您不阻止出口流量,并且为工作节点打开了端口6443
入口规则(与加入阶段有关)。
确保required ports没有被占用。
尝试使用systemctl restart kubelet
重新启动Kubelet,并使用
sudo journalctl -u kubelet -n 100 --no-pager
检查最新日志。
检查Docker版本是否可以更新到较新的稳定版本。
尝试运行kubeadm reset
,并通过添加kubeadm init
确保以最新版本或特定稳定版本重新运行--kubernetes-version=X.Y.Z
。
答案 1 :(得分:-1)
由于我更新了kubelet,所以找不到/var/lib/kubelet/config.yaml
对于该“ systemctl状态kubelet | journalctl -xe”
无法加载Kubelet配置文件/var/lib/kubelet/config.yaml
按照下面的链接,我已经从其他正在工作的工作节点上复制了config.yaml并正常工作!
https://github.com/kubernetes/kubernetes/issues/65863#issuecomment-403003592