Redis 高可用之主从复制

背景描述

单机的 Redis,能够承载的 QPS 大概就在十万左右。对于缓存来说,一般都是用来支撑读高并发的,做成 master-slave 架构,一主多从,master 节点负责写,并且将数据复制到其它的 slave 节点,slave 节点负责读,所有的读请求全部走 slave 节点,这样也可以很轻松实现水平扩容,支撑读高并发。

Redis replication 的核心机制

  • Redis 采用异步方式复制数据到 slave 节点,不过 Redis2.8 开始,slave node 会周期性地确认自己每次复制的数据量;
  • 一个 master node 是可以配置多个 slave node 的;
  • slave node 也可以连接其他的 slave node;
  • slave node 做复制的时候,不会阻塞 master node 的正常读写;
  • slave node 在做复制的时候,也不会阻塞对自己的读操作,它会用旧的数据集来提供服务;但是复制完成的时候,需要删除旧数据集,加载新数据集,这个时候会暂停服务;
  • slave node 主要用来进行横向扩容,做读写分离,扩容的 slave node 可以提高读的吞吐量。

PS. 如果采用了主从架构,那么建议必须开启 master node 的持久化,不建议用 slave node 作为 master node 的数据热备,因为如果关掉了 master 的持久化,可能在 master 宕机重启后数据是空的,这个时候 slave node 做数据同步,slave node 的数据也丢了。

另外,master node 也需要进行各种备份。一旦本地的所有文件丢失了,从备份中挑选一份 RDB 文件去恢复 master 数据,这样才能确保启动的时候,是有数据的,防止数据全部丢失。

Redis 主从复制的核心原理

当启动一个 slave node 的时候,它会发送一个 PSYNC 命令给 master node。如果这是 slave node 初次连接到 master node,那么会触发一次 full resynchronization 全量复制。此时 master 会启动一个后台线程,开始生成一份 RDB 快照文件,同时还会将客户端 client 新收到的所有写命令缓存在内存中。RDB 文件生成完毕后, master 会将这个 RDB 文件发送给 slave,slave 会先写入本地磁盘,然后再从本地磁盘加载到内存中,接着 master 会将内存中缓存的写命令发送到 slave,slave 也会同步这些数据。slave node 如果跟 master node 有网络故障,断开了连接,会自动重连,连接之后 master node 仅会复制给 slave 部分缺少的数据。

主从复制的断点续传

从 Redis2.8 开始,就支持主从复制的断点续传,如果主从复制过程中,网络连接断掉了,那么可以接着上次复制的地方,继续复制下去,而不是从头开始复制一份。

master node 会在内存中维护一个 backlog,master 和 slave 都会保存一个 replica offset 还有一个 master run idoffset 就是保存在 backlog 中的。如果 master 和 slave 网络连接断掉了,slave 会让 master 从上次 replica offset 开始继续复制,如果没有找到对应的 offset,那么就会执行一次 resynchronization

如果根据 host + ip 定位 master node,是不靠谱的,如果 master node 重启或者数据发生了变化,那么 slave node 应该根据不同的 run id 区分。

无磁盘化复制

master 在内存中直接创建 RDB,然后发送给 slave,不会在自己本地落地磁盘了。只需要在配置文件中开启 repl-diskless-sync yes 即可。

1
2
3
4
repl-diskless-sync yes

# 等待 5s 后再开始复制,因为要等更多 slave 重新连接过来
repl-diskless-sync-delay 5

slave 对过期 key 处理

slave 不会处理过期 key,只会等待 master 过期 key。如果 master 过期了一个 key,或者通过 LRU 淘汰了一个 key,那么会模拟一条 del 命令发送给 slave。

复制的完整流程

slave node 启动时,会在自己本地保存 master node 的信息,包括 master node 的 hostip,但是复制流程没开始。

slave node 内部有个定时任务,每秒检查是否有新的 master node 要连接和复制,如果发现,就跟 master node 建立 socket 网络连接。然后 slave node 发送 ping 命令给 master node。如果 master 设置了 requirepass,那么 slave node 必须发送 masterauth 的口令过去进行认证。master node 第一次执行全量复制,将所有数据发给 slave node。而在后续,master node 持续将写命令,异步复制给 slave node。

全量复制

  • master 执行 bgsave,在本地生成一份 RDB 快照文件;

  • master node 将 RDB 快照文件发送给 slave node,如果 RDB 复制时间超过 60 秒(repl-timeout),那么 slave node 就会认为复制失败,所以需要根据实际情况适当调大这个参数;

  • master node 在生成 RDB 文件时,会将所有新的写命令缓存在内存中,在 slave node 保存了 RDB 之后,再将新的写命令复制给 slave node。

  • 如果在复制期间,内存缓冲区持续消耗超过 64MB,或者一次性超过 256MB,那么将会停止复制,复制失败;

1
client-output-buffer-limit slave 256MB 64MB 60
  • slave node 接收到 RDB 之后,清空自己的旧数据,然后重新加载 RDB 到自己的内存中,同时基于旧的数据版本对外提供服务;

  • 如果 slave node 开启了 AOF,那么会立即执行 BGREWRITEAOF,重写 AOF

增量复制

  • 如果全量复制过程中,master-slave 网络连接断掉,那么 slave 重新连接 master 时,会触发增量复制;

  • master 直接从自己的 backlog 中获取部分丢失的数据,发送给 slave node,默认 backlog 就是 1MB

  • master 就是根据 slave 发送的 psync 中的 offset 来从 backlog 中获取数据的。

heartbeat

主从节点互相都会发送 heartbeat 信息。

master 默认每隔 10秒 发送一次 heartbeat,slave node 每隔 1秒 发送一个 heartbeat

异步复制

master 每次接收到写命令之后,先在内部写入数据,然后异步发送给 slave node。

参考资料

感谢您的阅读,本文由 董宗磊的博客 版权所有。如若转载,请注明出处:董宗磊的博客(https://dongzl.github.io/2020/03/17/14-Redis-HA-Master-Salve/
Kafka 是如何解决使用 MQ 中容易出现的一些问题
JDK ThreadPoolExecutor 源码解析