我应该如何将单台服务器的传出流量负载分配到多台服务器?

我应该如何将单台服务器的传出流量负载分配到多台服务器?

我有一个在 VPS 上运行的应用程序。

我的服务器以极高的速率向外部 API 发送 HTTP 请求。这导致我超出了提供商的传出流量限制。

我在互联网上搜索到的信息为我提供了大量关于如何平衡传入流量的信息,但我的问题是传出流量,我发现这方面的信息很少,而且没有一个与我的情况相关。

为了获得更高的带宽限额而购买专用服务器对我来说是负担不起的(至少在应用程序盈利足够高之前,这需要先扩大规模,这就是我的问题)。

以下方法可以解决我的问题吗?

我保留了当前的服务器,但我修改了程序,这样它就不再执行传出的 HTTP 请求,而是创建一个队列,其中包含我用来形成每个请求的数据。我还获得了一些较小的 VPS,它们的工作是独立且间歇地检查主服务器队列中是否有任何待处理的请求。如果有待处理的请求需要执行,它会使用队列中的数据来形成并发送相应的请求,最后当从外部 API 收到响应时,将 HTTP 响应发送到主服务器。

注意:我的 HTTP 请求通过外部代理服务,这会增加每个请求的开销。有关最小化请求大小的建议也可能有帮助。

这是我第一次部署高流量的应用程序,而我对网络的了解很少,这无济于事。任何建议都将不胜感激。

相关内容