使用kubespray创建Kubernetes集群时,主节点中的kubectl运行问题

时间:2019-10-15 11:38:14

标签: kubernetes ansible kubespray

我正在尝试使用具有单个主节点和3个工作节点的kubespray创建Kubernetes集群。我克隆了github kubespray存储库,并从控制节点运行ansible剧本以形成集群。

我正在尝试以下命令:

sudo ansible-playbook -i inventory/sample/hosts.ini cluster.yml --become --ask-become-pass

当我运行命令时,2个工作节点的最终状态正常。但是对于主节点,它显示失败并出现如下错误:

fatal: [mildevkub020]: FAILED! => {"changed": false, "msg": "error running kubectl (/usr/local/bin/kubectl apply --force --filename=/etc/kubernetes/k8s-cluster-critical-pc.yml) command (rc=1), out='', err='error: unable to recognize \"/etc/kubernetes/k8s-cluster-critical-pc.yml\": Get http://localhost:8080/api?timeout=32s: dial tcp 127.0.0.1:8080: connect: connection refused\n'"}

我正在添加以下错误的屏幕截图:

enter image description here

修改

我删除了较旧的kubespray存储库,并从以下链接中克隆了一个新的kubespray存储库,

https://github.com/kubernetes-sigs/kubespray.git

并更新了我的库存。但是仍然出现相同的错误。当我为日志运行“ journalctl”命令时,我将得到以下信息:

Oct 15 09:56:17 mildevdcr01 kernel: NX (Execute Disable) protection: active
Oct 15 09:56:17 mildevdcr01 kernel: SMBIOS 2.4 present.
Oct 15 09:56:17 mildevdcr01 kernel: DMI: VMware, Inc. VMware Virtual 
Platform/440BX Desktop Reference Platform, BIOS 6.00 09/22/2009
Oct 15 09:56:17 mildevdcr01 kernel: Hypervisor detected: VMware
Oct 15 09:56:17 mildevdcr01 kernel: Kernel/User page tables isolation: disabled
Oct 15 09:56:17 mildevdcr01 kernel: e820: update [mem 0x00000000-0x00000fff] usable ==> reserved
Oct 15 09:56:17 mildevdcr01 kernel: e820: remove [mem 0x000a0000-0x000fffff] usable
Oct 15 09:56:17 mildevdcr01 kernel: AGP: No AGP bridge found
Oct 15 09:56:17 mildevdcr01 kernel: e820: last_pfn = 0x240000 max_arch_pfn = 0x400000000
Oct 15 09:56:17 mildevdcr01 kernel: MTRR default type: uncachable
Oct 15 09:56:17 mildevdcr01 kernel: MTRR fixed ranges enabled:
Oct 15 09:56:17 mildevdcr01 kernel:   00000-9FFFF write-back
Oct 15 09:56:17 mildevdcr01 kernel:   A0000-BFFFF uncachable
Oct 15 09:56:17 mildevdcr01 kernel:   C0000-CBFFF write-protect

错误

fatal: [mildevkub020]: FAILED! => {"attempts": 10, "changed": false, "msg": "error running kubectl (/usr/local/bin/kubectl apply --force --filename=/etc/kubernetes/node-crb.yml) command (rc=1), out='', err='W1016 06:50:31.365172   22692 loader.go:223] Config not found: etc/kubernetes/admin.conf\nerror: unable to recognize \"/etc/kubernetes/node-crb.yml\": Get http://localhost:8080/api?timeout=32s: dial tcp 127.0.0.1:8080: connect: connection refused\n'"}

1 个答案:

答案 0 :(得分:1)

在集群安装之前,请确保已遵循所有requirements。 尤其是将ssh密钥复制到清单中的所有服务器部分。

在先前安装之后重置环境:

$ sudo ansible-playbook -i inventory/mycluster/hosts.yml reset.yml -b -v \
  --private-key=~/.ssh/private_key

请记住要更改cluster configuration文件并对其进行个性化设置。 您可以更改网络插件-默认为Calico。

然后使用以下命令再次运行ansible剧本:

$ sudo ansible-playbook -i inventory/sample/hosts.ini cluster.yml -b -v \ 
  --private-key=~/.ssh/private_key

尝试复制/ sample文件夹并重命名,然后更改k8s-cluster和hosts文件。

检查主机文件: 切记不要修改k8s-cluster的子级,就像将etcd组放入k8s-cluster一样,除非您确定要这样做。

k8s-cluster ⊂ etcd => kube-node ∩ etcd = etcd

清单文件示例,您可以在这里找到:inventory

如果问题仍然存在,请执行命令journalctl并检查显示的日志。

编辑:

您提供了更多信息。从您的日志看来,您必须 将VM硬件版本设置为VMware设置中可用的最高版本,然后在该系统上安装所有可用更新。