我读到可以绑定到群集中的节点的数据磁盘数量受到限制。现在,我正在使用一个只能容纳多达4个数据磁盘的小节点。如果我超过此金额,我将收到此错误:0/1 nodes are available: 1 node(s) exceed max volume count.
我主要遇到的问题是如何处理。我的群集中有一些只需要少量持久性存储的应用程序,但是我只能附加一些数据磁盘。如果我绑定4个100m的数据磁盘,我已经达到了最大限制。
有人可以建议我如何处理这些情况吗?我可以轻松地扩展机器,并且我的机器和更多的磁盘将具有更多的功能,但是此时磁盘与服务器的功率比率已完全抵消。
最佳 Pim
答案 0 :(得分:1)
您应该查看使用Azure文件而不是Azure磁盘。使用Azure File,您可以执行ReadWriteMany,因此可以在VM(节点)上进行一次装载,以允许多个POD访问装载的卷。
https://github.com/kubernetes/examples/blob/master/staging/volumes/azure_file/README.md
https://kubernetes.io/docs/concepts/storage/storage-classes/#azure-file
https://docs.microsoft.com/en-us/azure/aks/azure-files-dynamic-pv
答案 1 :(得分:0)
这些是当前对AKS节点的限制。 您可以通过添加更多节点和更多资金来处理它,或者找到具有不同限制的提供程序。 以其中一个为例,对于相同的节点大小,限制为127个卷和110个pod。