HAProxy 和流媒体服务器瓶颈问题

HAProxy 和流媒体服务器瓶颈问题

我正在研究将 HAProxy 用作多个 nginx 服务器的负载平衡器。每个服务器都从中流式传输静态文件(音频文件)。Nginx 将使用 symfony2 框架。关于会话的亲和性/持久性,我将在 nginx 服务器上使用 memcached。我的预算有限,因此我试图制定尽可能灵活和可扩展的网络方案。我将绘制一张图表来简单回答我的问题:

           +---> nginx server 1 @ 1gbps
           |
HAProxy <--+---> nginx server 2 @ 1gbps
           |
           +---> nginx server 3 @ 1gbps

附言:我知道我需要第二个 haproxy 服务器来进行故障转移,但不幸的是我目前买不起更多的服务器。

我主要关心的是如何使用 HAProxy 进行“回复”。据我所知,如果回复通过 HAProxy,LB 将成为瓶颈,因为它无法为超过其端口容量的用户提供服务(请记住,它是一个假设负载为 95% 的流媒体服务器)。但是,我看到有人说 HAProxy 只进行路由,但如果入站和出站流量仍通过 HAProxy,我不确定这意味着什么。

答案1

HAProxy 必须是高带宽服务器。它必须至少具有后端服务器的总带宽,这样它才不会限制所有带宽。在最好的情况下,您还剩下一点余地。10GBps 的连接可能适合作为开始。

另一方面,它不需要最大的 CPU。“人”可能就是这个意思。由于后端服务器可以专注于计算,因此 HAProxy 只需要路由流量。

相关内容