sticky-sessions

有没有办法根据标签路由 MSMQ 消息?
sticky-sessions

有没有办法根据标签路由 MSMQ 消息?

我有一个系统,其中有一个 MSMQ 发送器(每秒生成约 10k 条消息)和一个 MSMQ 接收器(每秒 2k 条消息)。生成和发送消息很快,但读取和处理很慢。因此,我想放置一个负载平衡器并使用几个接收器。目前消息是 XML 格式的,一旦我解决了负载平衡问题,我计划转向二进制格式化程序。 问题:带有特定标签(或可能的内部 XML 标签值)的消息应始终发送给完全相同的接收者。服务器宕机的情况超出了本问题的范围(如果您知道如何处理这种情况,则有加分)。 我使用 HAProxy 进行其他循环 MSMQ 负载平衡,它在 TCP 模式下运行良好。我想知道我是否可以在...

Admin

使用 URL 参数通过 HAProxy 实现负载平衡
sticky-sessions

使用 URL 参数通过 HAProxy 实现负载平衡

我有一个通过 cookie 进行负载平衡的系统,但我想使用 URL 参数作为替代方案。(具体来说,我有一个不支持 cookie 的前端应用程序)。我的设置有点复杂 - 我有一个多人游戏系统,我使用带有此 cookie 的 stick 表来确保玩同一款游戏的不同人进入同一台服务器。这很有效,只是 URL 参数似乎什么也不做。这一切都是使用 haproxy 1.5dev17 我的相关后端是: defaults log global mode http option httplog ...

Admin

AWS ALB:TCP 可以实现粘性会话吗?
sticky-sessions

AWS ALB:TCP 可以实现粘性会话吗?

我需要平衡客户端的负载。其中一些客户端使用 TCP/TLS,其余使用 HTTP/HTTPS。 负载均衡器的目标服务可以位于EC2实例或ECS容器中。 此外,使用 TCP 的客户端需要与目标服务建立粘性会话。 由于应用程序负载均衡器需要使用 cookie 来允许粘性会话,而我的 TCP 客户端无法处理 cookie,那么如何在 AWS 生态系统中对这两种类型的客户端进行负载平衡——而不使用 NGINX Plus? ...

Admin

haproxy 粘贴表条目长度
sticky-sessions

haproxy 粘贴表条目长度

我正在使用string棒表: 没有指定条目长度(默认 32 个字符len正是我所需要的) store关键字中有一条注释:“对于此处指定的每个项目,每个条目的大小都会扩大,以便能够容纳额外的数据。”,所以我以为 32B 是专门为我的stick on入门准备的, 我用server_id,server_key并store意外意识到,它只haproxy存储了 31 个字符的操纵杆键, 再次阅读文档时,我发现了另一条(看似矛盾的)注释:“一个条目可以存储多种数据类型。” 这可能server_id是server_key消耗了条目中丢失的字节?我需要通过明确使用 来...

Admin

NGINX Plus 在进行 TCP/UDP 通信的会话持久化时如何处理服务器故障?
sticky-sessions

NGINX Plus 在进行 TCP/UDP 通信的会话持久化时如何处理服务器故障?

我从 NGINX Plus 文档中了解到,它们的负载平衡将绕过停机或拥塞的服务器,而会话持久性则尝试为给定会话维护同一台服务器。感觉当服务器在会话中途停机时,这两者可能会变得互斥。是否有服务器故障的迹象,以便我们知道由于切换到另一台服务器(会话内更改中可能没有)可能会丢失一些数据,还是它会悄悄地切换? 这专门用于 TCP/UDP 通信,而不是 HTTP。 ...

Admin

HAProxy 会话 cookie 为何改变?
sticky-sessions

HAProxy 会话 cookie 为何改变?

我在 Haproxy 后面运行两个应用程序容器并使用粘性会话。我为其配置了 cookie,如下所示: cookie SERVER insert indirect nocache server app1 app-1:443 check ssl verify none cookie srv1 server app2 app-2:443 check ssl verify none cookie srv2 该 cookie 附加到前端的请求中,但当我在网络面板中的浏览器控制台中检查时,大多数情况下,SERVER cookie 设置为“srv1”,但有时会更改为“s...

Admin

Nginx - 两个链接的 Nginx 实例上的会话持久性
sticky-sessions

Nginx - 两个链接的 Nginx 实例上的会话持久性

我有一个非常特殊的用例 - 我想知道是否没有更好的解决方案。 用例:多个用户应该能够同时访问来自 Nginx 实例 (A) 的大约 1000 个目标实例 (C1 至 C1000) 中的一个。不幸的是,100 个目标实例必须分别位于单独的 Nginx 实例 (B1 至 B10) 后面作为反向代理。 问题:如果多个用户同时从各自的客户端跳转到 A,然后从那里跳转到 B Nginx 实例之一,再从那里跳转到底层 C 目标实例之一,那么就会出现如何确保每个会话的一致性的问题。此外,C 目标实例必须能够在通过 A-Nginx 实例到达此 C 目标实例的相应客户端上设置...

Admin

如何清除“粘性” HAProxy 会话?
sticky-sessions

如何清除“粘性” HAProxy 会话?

所以,起初我haproxy.cfg看起来像这样(片段): frontend https_in mode http option httplog option forwardfor bind 192.168.150.2:443 ssl crt /etc/haproxy/ssl_cert/star_some_domain.pem crt /etc/haproxy/ssl_cert/star_sub_some_domain.pem acl host_git hdr(host) -i git.some.domain ...

Admin

HAProxy 2.0 - 根据 URL 重试某些请求
sticky-sessions

HAProxy 2.0 - 根据 URL 重试某些请求

我已经安装了 HAProxy 版本 2.0.14,并且正在寻找一个我尚未设法正确配置的特殊用例。 基本上,我有一个监听端口的前端和两个后端服务器。一旦启动会话,就会使用 cookie,因此会话会绑定到特定的后端服务器,并且不能共享给其他服务器。为了实现这一点,我使用stick-table和stick on关键字以及 LUA 脚本从请求中获取所需的值。 但是,当第一个请求到达时,如果选定的后端服务器未能及时响应,我们应该故障转移到另一个服务器,因为此时 cookie 尚未设置。 到目前为止我有以下配置: global log 127.0.0.1 len ...

Admin

当后端 RDP 会话断开时前端仍保持连接
sticky-sessions

当后端 RDP 会话断开时前端仍保持连接

我使用 HAProxy 在客户端和 RD 网关服务器之间对 RDP 连接进行负载平衡。HAProxy 后面有两个 RD 网关服务器(192.168.0.10/192.168.0.5),负载平衡方法是ROUND_ROBIN,并通过 保持会话SOURCE_IP。 这是我的配置: global daemon user nobody group haproxy log /dev/log local0 debug alert log /dev/log local1 notice alert maxconn 2500 ...

Admin

HAProxy 使用 URL 参数选择服务器
sticky-sessions

HAProxy 使用 URL 参数选择服务器

我们有一个在 websocket 连接上运行的移动游戏客户端,我们想使用 HAProxy 作为负载均衡器。主要有两个条件: 根据 url 参数 ID(32 到 64 个字符之间的可变字符串)设置粘性会话,然后根据最少连接选择服务器 如果没有 ID 参数,请选择第一个或默认服务器 以下是处理第一个情况的示例配置: backend app balance leastconn stick-table type string len 64 size 5M expire 30m stick store-request url_param(ID) ta...

Admin

HAProxy 在标头上进行平衡,同时将其隐藏在后端
sticky-sessions

HAProxy 在标头上进行平衡,同时将其隐藏在后端

我正在尝试设置 HAProxy,以便它根据标头值选择后端。但我还想向后端隐藏该标头。 我的配置: defaults mode http timeout connect 5s timeout client 5s timeout server 5s listen lb bind *:1234 balance hdr(Proxy-Authorization) # http-request del-header Proxy-Authorization server srv1 192.0.2.1:8080 server sr...

Admin

使用 ingress-gce 在 kubernetes 集群上实现粘性
sticky-sessions

使用 ingress-gce 在 kubernetes 集群上实现粘性

我正在尝试在 kubernetes 集群上实现粘性,但每次访问负载均衡器时,我都会被重定向到不同的 pod。我将会话亲和性设置为“ClientIP”,并尝试使用“生成的 Cookie”。 我已设置以下后端服务: apiVersion: v1 kind: Service metadata: annotations: beta.cloud.google.com/backend-config: '{"ports": {"80":"test-backendconfig"}}' kubectl.kubernetes.io/last-applie...

Admin

Azure 应用程序网关 CookieBasedAffinity 未将会话发送到同一主机
sticky-sessions

Azure 应用程序网关 CookieBasedAffinity 未将会话发送到同一主机

我们在应用程序网关后面的后端池中部署了 2 个 Linux VM。我们在 2 个 Linux VM 上的应用程序要求会话保持在同一后端服务器上,但我们看到会话同时使用两个后端服务器。 我们没有看到后端服务器出现任何中断。 我们已启用 CookieBasedAffinity 设置。 为什么这不像我们预期的那样工作以及可能存在什么问题? 更新 1: 我们的应用程序是从另一个网站调用的,但我没有看到应用程序网关 cookie 会话值设置,只有我们的 cookie 值。开始怀疑这是问题所在…… 更新2: 我不再相信更新 1 中 (严重) 描述的问题是问题所...

Admin