我正在使用Terraform在AWS中创建k8s集群。群集位于VPC中,其中已将节点定义为位于专用子网中,以将网络或入站网隔离到它们。这样就可以正常工作,并且群集正在vpc内构建。
我遇到的问题是没有创建或设置任何节点。我正在使用官方terraform-aws-eks
和terraform-aws-vpc
并将它们链接,如图所示。
provider "kubernetes" {
host = data.aws_eks_cluster.cluster.endpoint
cluster_ca_certificate = base64decode(data.aws_eks_cluster.cluster.certificate_authority.0.data)
token = data.aws_eks_cluster_auth.cluster.token
load_config_file = false
version = "~> 1.11"
}
module "my-cluster" {
source = "terraform-aws-modules/eks/aws"
cluster_name = "my-cluster"
cluster_version = 1.18
subnets = module.vpc_frontend.private_subnets
vpc_id = module.vpc_frontend.vpc_id
worker_groups = [
{
instance_type = "m4.large"
asg_max_size = 3
asg_desired_capacity = 1
tags = [{
key = "Name"
value = "frontend-spot-instance"
propagate_at_launch = true
}]
}
]
}
运行terraform apply
后没有显示错误
最初我以为是aws-auth cm
尚未创建,但是在我运行时
➜ terraform-test kubectl get cm -n kube-system
NAME DATA AGE
aws-auth 3 3m49s
coredns 1 8m2s
cp-vpc-resource-controller 0 7m30s
eks-certificates-controller 0 8m4s
extension-apiserver-authentication 6 8m10s
我不确定从这里看哪里。任何帮助将不胜感激。