kubeadm init之后的kube-proxy CrashLoopBackOff

时间:2018-03-13 07:16:50

标签: kubernetes

我使用kubeadm在CentOS 7.4 / Docker 1.12.6上创建kubernetes v1.9.3群集。 我按照Using kubeadm to Create a Cluster的说明操作。

  • 成功完成kubeadm init后,我获得状态为kube-proxy的{​​{1}}

    CrashLoopBackOff
  • # kubectl -n kube-system get pods NAME READY STATUS RESTARTS AGE etcd-ksa-m1.blue 1/1 Running 0 1m kube-apiserver-ksa-m1.blue 1/1 Running 0 1m kube-controller-manager-ksa-m1.blue 1/1 Running 0 1m kube-dns-6f4fd4bdf-24hcr 0/3 Pending 0 2m kube-proxy-n5lxp 0/1 CrashLoopBackOff 4 2m kube-scheduler-ksa-m1.blue 1/1 Running 0 1m 日志中出现错误:

    kube-proxy

我在kubernetes github中发现了一个类似的问题:kubernetes/issues/59461但是它在没有解决方案的情况下开了很长时间。

1 个答案:

答案 0 :(得分:0)

我刚刚发现它与docker systemd配置有关。我有一些由木偶写的码头配置。

  • docker-mountflags.conf似乎导致问题
  • 我有这个配置:

    # cat /etc/systemd/system/docker.service.d/docker-mountflags.conf
    [Service]
    MountFlags=private
    
  • 我可以通过将其更改为默认值来解决kube-proxy问题:

    # cat /etc/systemd/system/docker.service.d/docker-mountflags.conf
    [Service]
    MountFlags=slave
    
  • 在此次更改后,我kube-proxy的状态为Running

    # kubectl -n kube-system get pods
    NAME                                  READY     STATUS    RESTARTS   AGE
    etcd-ksa-m1.blue                      1/1       Running   0          18m
    kube-apiserver-ksa-m1.blue            1/1       Running   0          18m
    kube-controller-manager-ksa-m1.blue   1/1       Running   0          18m
    kube-dns-6f4fd4bdf-lsclt              0/3       Pending   0          19m
    kube-proxy-g29bt                      1/1       Running   0          19m
    kube-scheduler-ksa-m1.blue            1/1       Running   0          18m