Kubernetes集群中只有两个主节点处于活动状态,而AWS中的kops处于活动状态

时间:2019-08-01 12:03:34

标签: amazon-web-services kubernetes cassandra kops kubernetes-cluster

我正在尝试使用KOPS在AWS中设置kubernetes集群。我配置了3个主节点和6个节点。但是启动集群后,只有两个主节点启动。

我使用.k8s.local DNS而不是购买的DNS。下面是我用于创建集群的脚本。

kops create cluster \
--cloud=aws \
--name=kops-cassandra-cluster-01.k8s.local \
--zones=ap-south-1a,ap-south-1b,ap-south-1c \
--master-size="t2.small" \
--master-count 3 \
--master-zones=ap-south-1a,ap-south-1b,ap-south-1c \
--node-size="t2.small" \
--ssh-public-key="kops-cassandra-cluster-01.pub" \
--state=s3://kops-cassandra-cluster-01 \
--node-count=6

执行kops update cluster --name=kops-cassandra-cluster-01.k8s.local --state=s3://kops-cassandra-cluster-01 --yes之后 仅有两个主节点可用,而不是3个。

kubectl get nodes显示:

NAME                                           STATUS   ROLES    AGE   VERSION
ip-172-20-44-37.ap-south-1.compute.internal    Ready    master   18m   v1.12.8
ip-172-20-52-78.ap-south-1.compute.internal    Ready    node     18m   v1.12.8
ip-172-20-60-234.ap-south-1.compute.internal   Ready    node     18m   v1.12.8
ip-172-20-61-141.ap-south-1.compute.internal   Ready    node     18m   v1.12.8
ip-172-20-66-215.ap-south-1.compute.internal   Ready    node     18m   v1.12.8
ip-172-20-69-124.ap-south-1.compute.internal   Ready    master   18m   v1.12.8
ip-172-20-85-58.ap-south-1.compute.internal    Ready    node     18m   v1.12.8
ip-172-20-90-119.ap-south-1.compute.internal   Ready    node     18m   v1.12.8

我是Kubernetes的新手。我想念什么吗?

1 个答案:

答案 0 :(得分:1)

经过大量研究后,我知道这是由于t2引起的。ap-south-1c中无法使用small实例类型。将区域修改为eu-west-1a,eu-west-1b,eu-west-1c之后,我可以看到3个主节点和6个工作节点。感谢@mchawre的帮助。