标签: http architecture load-balancing microservices rate-limiting
来自传统的3层webapp背景,我试图看到在我在Docker容器上运行的微服务上实现速率限制的最佳方法。
因为可能有3或30+"实例"这个微服务运行时,我无法弄清楚如何限制在每个传入请求上进行共享状态调用(例如redis)的请求数量。
我已经在" API网关上有一个基本的速率限制器"用于防止大量请求的组件,但我认为微服务仍应根据某些业务逻辑参数负责速率限制。
其他人如何实施此架构?是否有任何博客或文章可以阐明这一点?