我使用kubeadm
在CentOS 7.4 / Docker 1.12.6上创建kubernetes v1.9.3群集。
我按照Using kubeadm to Create a Cluster的说明操作。
成功完成kubeadm init
后,我获得状态为kube-proxy
的{{1}}
CrashLoopBackOff
# kubectl -n kube-system get pods
NAME READY STATUS RESTARTS AGE
etcd-ksa-m1.blue 1/1 Running 0 1m
kube-apiserver-ksa-m1.blue 1/1 Running 0 1m
kube-controller-manager-ksa-m1.blue 1/1 Running 0 1m
kube-dns-6f4fd4bdf-24hcr 0/3 Pending 0 2m
kube-proxy-n5lxp 0/1 CrashLoopBackOff 4 2m
kube-scheduler-ksa-m1.blue 1/1 Running 0 1m
日志中出现错误:
kube-proxy
我在kubernetes github中发现了一个类似的问题:kubernetes/issues/59461但是它在没有解决方案的情况下开了很长时间。
答案 0 :(得分:0)
我刚刚发现它与docker systemd配置有关。我有一些由木偶写的码头配置。
docker-mountflags.conf
似乎导致问题我有这个配置:
# cat /etc/systemd/system/docker.service.d/docker-mountflags.conf
[Service]
MountFlags=private
我可以通过将其更改为默认值来解决kube-proxy
问题:
# cat /etc/systemd/system/docker.service.d/docker-mountflags.conf
[Service]
MountFlags=slave
在此次更改后,我kube-proxy
的状态为Running
# kubectl -n kube-system get pods
NAME READY STATUS RESTARTS AGE
etcd-ksa-m1.blue 1/1 Running 0 18m
kube-apiserver-ksa-m1.blue 1/1 Running 0 18m
kube-controller-manager-ksa-m1.blue 1/1 Running 0 18m
kube-dns-6f4fd4bdf-lsclt 0/3 Pending 0 19m
kube-proxy-g29bt 1/1 Running 0 19m
kube-scheduler-ksa-m1.blue 1/1 Running 0 18m