kube-dns错误:来自意外来源的回复

时间:2018-01-08 10:55:12

标签: kubernetes kube-dns

我对kube-dns有一个奇怪的错误。

环境: 使用kops在AWS上部署单个主服务器和几个节点的集群。 Kubernetes版本1.8.4。

问题是我的pod中的DNS名称解析(群集内部或外部名称)都很脆弱。经过故障排除后我才明白,只有在特定节点上安排pod时才会出现问题,该节点是kube-dns pod的其中一个副本正在运行的节点。

这些是我的kube-dns pods:

$ kubectl -n kube-system get po -l k8s-app=kube-dns -o wide
NAME                        READY     STATUS    RESTARTS   AGE       IP             NODE
kube-dns-7f56f9f8c7-2ztbn   3/3       Running   0          2d        100.96.8.239   node01
kube-dns-7f56f9f8c7-h5w29   3/3       Running   0          17d       100.96.7.114   node02

如果我运行测试POD强制它在node02上运行,一切似乎都很好。我可以解决任何(有效的)DNS名称而没有任何问题。

如果我在node01上运行相同的测试POD名称解析是不稳定的:有时会失败(大约50%的时间)并出现以下错误

$ dig google.com
;; reply from unexpected source: 100.96.8.239#53, expected 100.64.0.10#53

其余的时间它完美无缺:

$ dig google.com

; <<>> DiG 9.10.4-P3 <<>> google.com
;; global options: +cmd
;; Got answer:
;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 24454
;; flags: qr rd ra; QUERY: 1, ANSWER: 6, AUTHORITY: 0, ADDITIONAL: 1

;; OPT PSEUDOSECTION:
; EDNS: version: 0, flags:; udp: 4096
;; QUESTION SECTION:
;google.com.                    IN      A

;; ANSWER SECTION:
google.com.             60      IN      A       209.85.202.100
google.com.             60      IN      A       209.85.202.101
google.com.             60      IN      A       209.85.202.102
google.com.             60      IN      A       209.85.202.113
google.com.             60      IN      A       209.85.202.138
google.com.             60      IN      A       209.85.202.139

;; Query time: 2 msec
;; SERVER: 100.64.0.10#53(100.64.0.10)
;; WHEN: Mon Jan 08 10:46:42 UTC 2018
;; MSG SIZE  rcvd: 135

/etc/resolv.conf正确指向kube-dns服务的IP地址:

$ head -n 1 /etc/resolv.conf 
nameserver 100.64.0.10

$ kubectl -n kube-system get svc kube-dns 
NAME       TYPE        CLUSTER-IP    EXTERNAL-IP   PORT(S)         AGE
kube-dns   ClusterIP   100.64.0.10   <none>        53/UDP,53/TCP   33d

显然,仅在node01上,当服务将请求转发到kube-dns本身运行的node01 pod实例时,就会触发错误。

我尝试在node01重新启动kube-proxy,但问题仍然存在。

我敢打赌,重新启动/重新创建node01会让问题消失,但我需要确保此问题不再发生。

有人知道发生了什么事吗?

2 个答案:

答案 0 :(得分:6)

我发现issue on github与我所拥有的solution非常相似,并且Sample code张贴在那里似乎有效。

基本上,我需要使用以下命令加载内核模块:

c <- apply(a, 2, function(x) x / b)

当然,YMMV

答案 1 :(得分:1)

对于centos,以下解决方案为我工作

https://github.com/kubernetes/kubernetes/issues/21613#issuecomment-363859075

echo '1' > /proc/sys/net/bridge/bridge-nf-call-iptables