主从功能:
为了防止 Redis 磁盘损坏,导致数据丢失,Redis 提供了复制功能,将一个主数据库的数据自动同步到从数据库,防止数据丢失。
同时还可以配置一主多从来分担主压力,主只接受写的操作,将读的操作给从来实现;其中从库也可以接受其它从库的同步请求。
如果主、从因为网络原因出现连接断开,网络正常后从可以自动连接主,连接成功后主会将完整的数据同步一次给从,保证数据一致性。
主从原理:
1、从数据库启动后,向主数据库发送 SYNC 命令
2、主数据库收到 SYNC 命令后开始保存快照,在此期间所有发给主数据库的命令都被缓存起来
3、快照保存完后,主数据库把快照和缓存的命令一起发给从数据库
4、从数据库保存主数据发来的快照文件,并依次执行主数据库发来的缓存命令
在同步过程中,主、从数据库都不会阻塞:
-----> 主库可以继续接受客户端提交的查询或修改请求;
-----> 从库默认使用同步之前的数据继续响应客户端发来的命令
一、配置 Redis 主从
## 这里可以使用一台服务器启动两个 Redis 服务,只需指定不同的配置文件,不同的端口即可
## 为了加入防火墙规则,我使用两台服务器来完成
Redis Master :192.168.1.88
Redis Slave :192.168.1.80
1、Redis Master ( 这里不写安装过程了,写到 Slave 位置 )
[[email protected] ~]# vim /usr/local/redis/redis.conf daemonize yes port 6379 timeout 300 loglevel verbose pidfile /usr/local/redis/logs/redis.pid logfile /usr/local/redis/logs/redis.log requirepass redispassword databases 16 save 900 1 save 300 10 save 60 10000 rdbcompression yes dbfilename dump.rdb dir /usr/local/redis/data/ appendonly no appendfilename appendonly.aof appendfsync everysec no-appendfsync-on-rewrite yes auto-aof-rewrite-percentage 100 auto-aof-rewrite-min-size 64mb [[email protected] ~]# redis-server /usr/local/redis/redis.conf [[email protected] ~]# netstat -anpt | grep redis tcp 0 0 0.0.0.0:6379 0.0.0.0:* LISTEN 1154/redis-server [[email protected] ~]# iptables -I INPUT 4 -s 192.168.1.80 -p tcp --dport 6379 -j ACCEPT
2、Redis Slave
下载地址:https://code.google.com/p/redis/downloads/list
[[email protected] ~]# cd /usr/local/src/ [[email protected] src]# tar zxf redis-2.6.10.tar.gz [[email protected] src]# cd redis-2.6.10 [[email protected] redis-2.6.10]# make ; make install [[email protected] ~]# mkdir /usr/local/redis [[email protected] ~]# cd !$ cd /usr/local/redis [[email protected] redis]# cp ../src/redis-2.6.10/redis.conf . [[email protected] redis]# cp ../src/redis-2.6.10/src/redis-cli . [[email protected] redis]# cp ../src/redis-2.6.10/src/redis-server . [[email protected] redis]# cp ../src/redis-2.6.10/src/redis-sentinel . [[email protected] redis]# cp ../src/redis-2.6.10/src/redis-benchmark . [[email protected] redis]# cp ../src/redis-2.6.10/src/redis-check-aof . [[email protected] redis]# cp ../src/redis-2.6.10/src/redis-check-dump . [[email protected] redis]# echo "vm.overcommit_memory = 1" >> /etc/sysctl.conf [[email protected] redis]# sysctl vm.overcommit_memory=1 [[email protected] redis]# mkdir data logs [[email protected] redis]# vim redis.conf daemonize yes port 6379 timeout 300 loglevel verbose pidfile /usr/local/redis/logs/redis.pid logfile /usr/local/redis/logs/redis.log #requirepass redispassword databases 16 save 900 1 save 300 10 save 60 10000 rdbcompression yes dbfilename dump.rdb dir /usr/local/redis/data/ appendonly no appendfilename appendonly.aof appendfsync everysec no-appendfsync-on-rewrite yes auto-aof-rewrite-percentage 100 auto-aof-rewrite-min-size 64mb masterauth redispassword slaveof 192.168.1.88 6379
## 直接复制 Master 的配置文件,添加最后两行即可
[[email protected] ~]# redis-server /usr/local/redis/redis.conf [[email protected] ~]# netstat -anpt | grep redis tcp 0 0 0.0.0.0:6379 0.0.0.0:* LISTEN 3442/redis-server tcp 0 0 192.168.1.80:50799 192.168.1.88:6379 ESTABLISHED 3442/redis-server
## 可以看到启动成功,并且建立了一条到 Master 的连接
[[email protected] ~]# ls /usr/local/redis/data/ dump.rdb
## data 目录下也有了 master 同步过来的数据( 虽然主库并没有写入数据 )
二、测试 Redis 主从
[[email protected] ~]# redis-cli -a redispassword redis 127.0.0.1:6379> keys * (empty list or set) redis 127.0.0.1:6379> set name wang OK redis 127.0.0.1:6379> set id 8 OK redis 127.0.0.1:6379> keys * 1) "id" 2) "name" redis 127.0.0.1:6379> quit
## 这是在 master 上的操作,-a 指定认证密码
[[email protected] ~]# redis-cli redis 127.0.0.1:6379> keys * 1) "id" 2) "name" redis 127.0.0.1:6379> get name "wang" redis 127.0.0.1:6379> get id "8" redis 127.0.0.1:6379> set cc 123 (error) READONLY You can‘t write against a read only slave. redis 127.0.0.1:6379> quit
## 这是在从上的操作,其中 slave 没有设密码所以不用 -a 指定,可以查到同步过来的 keys ,因为要保持数据一致性,所以不能写入。
## 如果在主执行 del name 那么从上的 name 也被删除。
## 主从同步完成 !