Redis 集群主节点在一段时间后重新启动

Redis 集群主节点在一段时间后重新启动

我有一个包含 3 个主服务器和 3 个从服务器的 Redis 集群。我可以向集群添加数据并取回数据,没有任何问题。

当数据保存到主节点时,就会出现问题。一段时间后,主节点将自行重新启动(见下面的输出),然后它保存的数据将丢失。如果集群决定使用从节点来存储数据,则数据将保留,直到达到 ttl。

重新启动时日志中的输出如下:

30580:signal-handler (1479922724) Received SIGTERM scheduling shutdown...
30580:M 23 Nov 17:38:44.544 # User requested shutdown...
30580:M 23 Nov 17:38:44.545 * Calling fsync() on the AOF file.
30580:M 23 Nov 17:38:44.545 * Saving the final RDB snapshot before exiting.
30580:M 23 Nov 17:38:44.567 * DB saved on disk
30580:M 23 Nov 17:38:44.567 * Removing the pid file.
30580:M 23 Nov 17:38:44.567 # Redis is now ready to exit, bye bye...
30636:M 23 Nov 17:38:44.783 * Increased maximum number of open files to                     10032 (it was originally set to 1024).
17513:M 23 Nov 17:31:10.552 * Node configuration loaded, I'm cd698d5a4350c161930b40c52f71e1fabeac549d

<%insert_logo_and_pid_here%>              

17513:M 23 Nov 17:31:10.553 # Server started, Redis version 3.2.4
17513:M 23 Nov 17:31:10.553 * The server is now ready to accept connections on port 6379
17513:M 23 Nov 17:31:11.404 * Slave <%ip%>:6379 asks for synchronization
17513:M 23 Nov 17:31:11.404 * Full resync requested by slave <%ip%>:6379
17513:M 23 Nov 17:31:11.404 * Starting BGSAVE for SYNC with target: disk
17513:M 23 Nov 17:31:11.405 * Background saving started by pid 17518
17518:C 23 Nov 17:31:11.418 * DB saved on disk
17518:C 23 Nov 17:31:11.418 * RDB: 0 MB of memory used by copy-on-write
17513:M 23 Nov 17:31:11.455 * Background saving terminated with success
17513:M 23 Nov 17:31:11.455 * Synchronization with slave <%ip%>:6379 succeeded
17513:M 23 Nov 17:31:12.557 # Cluster state changed: ok

我不确定这是不是正在杀死它,还是正在自我保存并重新启动?我可以看到有信号和用户请求的关机,但我没有做任何这样的事情。

另外,你们中眼尖的人会注意到行号的差异,这是因为我从不同的 Redis 实例复制了它,并且懒得去更改它。

其运行的服务器是Centos 7,Redis版本3.2.4。

如能得到任何帮助我将非常感激,提前谢谢。

答案1

在阅读了许多文章说在 Centos 7 中daemonize yes需要注释掉它之后,我终于尝试将其保留为是。这立即解决了问题,并且不再重新启动 redis 实例。

相关内容