我在Virtual Box中设置并安装了两个ubuntu映像的IBM Cloud private CE。我可以ssh到两个图像,从那里ssh到其他人。 ICp仪表板仅显示一个我期待两个的活动节点。
我明确地运行了命令(来自主节点上的root用户):
var data = [{
type: 'bar',
x: [20, 14, 23],
y: ['giraffes', 'orangutans', 'monkeys'],
orientation: 'h'
}];
var layout = {
xaxis:{
autorange:'reversed'
},
yaxis:{
side:'right'
}
}
Plotly.newPlot('tester', data, layout);
此命令的结果似乎是成功添加了工作节点:
docker run -e LICENSE=accept --net=host \
-v "$(pwd)":/installer/cluster \
ibmcom/cfc-installer install -l \
192.168.27.101
但是工作节点仍然没有显示在仪表板中。
我应该检查什么以确保工作节点可以为主节点工作?
答案 0 :(得分:3)
如果您正在使用Vagrant配置IBM Cloud Private,我强烈建议您尝试https://github.com/IBM/deploy-ibm-cloud-private
项目将使用Vagrantfile
配置主/代理,然后使用LXD在映像中配置2个worker 。通过运行两个完整的Virtual Box映像(1个用于主服务器/代理服务器,1个用于工作服务器),您可以在笔记本电脑上获得更好的密度和性能。
答案 1 :(得分:0)
您可以通过以下步骤检查您的工作节点:
检查群集节点状态
kubectl get nodes
检查新添加的工作节点的状态
如果是NotReady
,请检查kubelet日志是否有关于kubelet无法正常运行的错误消息:
systemctl status kubelet
docker ps -a|grep kubelet
获取kubelet_containerid,
docker logs kubelet_containerid
答案 2 :(得分:0)
运行此命令以使kubectl正常工作
ln -sf /opt/kubernetes/hyperkube /usr/local/bin/kubectl
运行以下命令以识别主节点上的设置中的失败pod。
运行此命令以获取在环境中运行的pod详细信息 kubectl -n kube-system get pods -o wide
重新启动任何失败的icp
窗格txt="0/";ns="kube-system";type="pods"; kubectl -n $ns get $type | grep "$txt" | awk '{ print $1 }' | xargs kubectl -n $ns delete $type
现在运行kubectl cluster-info
kubectl get nodes
然后ckeck kubectl
的cluster info命令Check kubectl version is giving you https://localhost:8080 or https://masternodeip:8001
kubectl cluster-info
你得到输出
如果没有.. 那么
login to https://masternodeip:8443 using admin login
然后单击面板上的admin复制configure clientcli设置 将其粘贴到您的主节点中。
然后运行 kubectl cluster-info