运行启用了自动缩放功能的Google Container / Kubernetes Engine群集时,如何避免不可调度的pod?

时间:2017-11-13 16:56:00

标签: kubernetes google-cloud-platform google-kubernetes-engine

我遇到了一个问题,我似乎在9个节点(或9个vCPU)上最大化了我的Container Engine(Kubernetes Engine)集群。对于上下文,我试图像Kubernetes Cron Jobs那样运行大约50个左右的网络抓取工具。以下是我用于在gcloud区域中创建群集的us-east1-c命令:

gcloud beta container clusters create my-example-cluster \
  --cluster-version=1.8.1-gke.1 \
  --machine-type=f1-micro \
  --enable-autoscaling \
  --min-nodes=1 \
  --max-nodes=60

当我查看IAM & Admin > Quotas时,看起来我可能最大限度地使用正在使用的IP地址(最大值= 8)。

启动所有刮刀之后,我结束了大约35个不可预定的吊舱(看似因为我不能超过9个节点?)。

是否有人遇到类似情况并提出解决方案?有没有办法,也许通过Kubernetes配置,不计入IP地址使用,因为这些节点不需要外部访问(如果这甚至是问题)?如果有人有建议,也可以对其他设置开放。

感谢您的帮助!

P.S。我确实已启用结算

1 个答案:

答案 0 :(得分:5)

我从Google Cloud Platform Community Slack收到了有关此问题的一些帮助。事实证明我正在使用正在使用的IP地址配额;但是,我没有意识到你可以要求增加配额。

我能够通过以下方式增加配额:

  1. 导航至菜单> IAM&管理员>我的项目的Google Cloud Platform控制台中的配额
  2. 选择/检查我正在使用的区域中的服务(例如,us-west1正在使用的IP地址
  3. 点击服务表上方的编辑订单按钮
  4. 输入/验证联系信息
  5. 在与您联系时遵守GCP支持
  6. 所以,基本上是对我的监督,但也许这会帮助那些没有注意到或者没有意识到这个选项的人。