Kubernetes Kubelet错误更新节点状态

时间:2018-10-09 13:10:10

标签: kubernetes amazon-eks

通过EKS在AWS中运行kubernetes集群。一切似乎都按预期工作,但只是检查所有日志以进行验证。我跳到一个工作节点上,在查看kubelet服务时发现了很多错误

Oct 09 09:42:52 ip-172-26-0-213.ec2.internal kubelet[4226]: E1009 09:42:52.335445    4226 kubelet_node_status.go:377] Error updating node status, will retry: error getting node "ip-172-26-0-213.ec2.internal": Unauthorized
Oct 09 10:03:54 ip-172-26-0-213.ec2.internal kubelet[4226]: E1009 10:03:54.831820    4226 kubelet_node_status.go:377] Error updating node status, will retry: error getting node "ip-172-26-0-213.ec2.internal": Unauthorized

所有节点都显示为就绪,但是我不确定为什么会出现这些错误。有3个工作节点,所有3个都具有相同的kubelet错误(主机名明显不同)

其他信息。看来错误是来自kubelet_node_status.go

中的这一行
node, err := kl.heartbeatClient.CoreV1().Nodes().Get(string(kl.nodeName), opts)
if err != nil {
    return fmt.Errorf("error getting node %q: %v", kl.nodeName, err)
}

从工人那里,我可以使用kubectl执行get节点:

kubectl get --kubeconfig=/var/lib/kubelet/kubeconfig nodes
NAME                           STATUS    ROLES     AGE       VERSION
ip-172-26-0-58.ec2.internal    Ready     <none>    1h        v1.10.3
ip-172-26-1-193.ec2.internal   Ready     <none>    1h        v1.10.3

1 个答案:

答案 0 :(得分:0)

结果证明这不是问题。 AWS针对这些错误的官方回复:

kubelet将定期向Kubernetes API报告节点状态。这样做时,需要aws-iam-authenticator生成的身份验证令牌。 kubelet将调用aws-iam-authenticator,并将令牌存储在其全局缓存中。在EKS中,此身份验证令牌将在21分钟后过期。

kubelet不了解令牌的到期时间,因此它将尝试使用其缓存中的令牌来访问API。当API返回未经授权的响应时,就会有一种重试机制,可以从aws-iam-authenticator获取新令牌并重试请求。

相关问题