前面我们谈了Redis Sharding多服务器集群技术,Redis Sharding是客户端Sharding技术,对于服务端来说,各个Redis服务器彼此是相互独立的,这对于服务端根据需要灵活部署Redis非常轻便,Redis Sharding具有很好的灵活性、可伸缩性,是一种轻量级集群技术。
本篇,介绍另外一种多Redis服务器集群技术,即Redis Cluster。Redis Cluster是一种服务器Sharding技术,3.0版本开始正式提供。
Redis Cluster中,Sharding采用slot(槽)的概念,一共分成16384个槽,这有点儿类似前面讲的pre sharding思路。对于每个进入Redis的键值对,根据key进行散列,分配到这16384个slot中的某一个中。使用的hash算法也比较简单,就是CRC16后16384取模。
Redis集群中的每个node(节点)负责分摊这16384个slot中的一部分,也就是说,每个slot都对应一个node负责处理。当动态添加或减少node节点时,需要将16384个槽做个再分配,槽中的键值也要迁移。当然,这一过程,在目前实现中,还处于半自动状态,需要人工介入。
Redis集群,要保证16384个槽对应的node都正常工作,如果某个node发生故障,那它负责的slots也就失效,整个集群将不能工作。
为了增加集群的可访问性,官方推荐的方案是将node配置成主从结构,即一个master主节点,挂n个slave从节点。这时,如果主节点失效,Redis Cluster会根据选举算法从slave节点中选择一个上升为主节点,整个集群继续对外提供服务。这非常类似前篇文章提到的Redis Sharding场景下服务器节点通过Sentinel监控架构成主从结构,只是Redis Cluster本身提供了故障转移容错的能力。
Redis Cluster的新节点识别能力、故障判断及故障转移能力是通过集群中的每个node都在和其它nodes进行通信,这被称为集群总线(cluster bus)。它们使用特殊的端口号,即对外服务端口号加10000。例如如果某个node的端口号是6379,那么它与其它nodes通信的端口号是16379。nodes之间的通信采用特殊的二进制协议。
对客户端来说,整个cluster被看做是一个整体,客户端可以连接任意一个node进行操作,就像操作单一Redis实例一样,当客户端操作的key没有分配到该node上时,Redis会返回转向指令,指向正确的node,这有点儿像浏览器页面的302 redirect跳转。
Redis Cluster是Redis 3.0以后才正式推出,时间较晚,目前能证明在大规模生产环境下成功的案例还不是很多,需要时间检验。
集群搭建R
下面,我们就实际操作建立一个Redis Cluster。我们将建立3个node,每个node架构成一主一从,故总共有6个redis实例,端口号从7000-7005。
Cluster下的Redis实例,和普通Redis实例一样,只是处于cluster模式方式下运行。
实操步骤如下:
1. 以3.0.5为例,建立cluster目录,其下再建6个子目录代表6实例环境
mkdir cluster
mkdir 7000 7001 7002 7003 7004 7005
2. 将redis.conf模板分别copy到上面6子目录中,并做如下修改,以7000为例:
修改如下信息
daemonize yes
pidfile /var/run/redis-7000.pid
port 7000
logfile "/var/log/redis-7000.log"
注释掉如下信息, 不需要RDB持久化
#save 900 1
#save 300 10
#save 60 10000
修改如下信息
appendonly yes
appendfilename "appendonly-7000.aof"
取消如下注释,让Redis在集群模式下运行
cluster-enabled yes 启动cluster模式
cluster-config-file nodes-7000.conf 集群信息文件名,由redis自己维护
cluster-node-timeout 15000 15秒中联系不到对方node,即认为对方有故障可能
3. 在各个目录下执行 redis-server redis.conf 启动redis实例
这时,这几个实例都是各自是一个集群状态在运行,并没有形成一个整体集群态,我们需要Redis提供的基于ruby开发的工具进行人工设置。
4.安装ruby环境
yum install ruby ruby-devel rubygems
5.安装Redis的ruby依赖接口
gem install redis
6.利用脚本工具建立集群
./redis-trib.rb create --replicas 1 192.168.1.142:7000 192.168.1.142:7001 192.168.1.142:7002 192.168.1.142:7003 192.168.1.142:7004 192.168.1.142:7005
该脚本自动执行节点分配方案,将前3个redis实例作为主节点,后三个作为从节点,如图:
按提示敲入"yes",执行方案,将6个节点组成集群,3主3从。
执行redis-cli -p 7000 info Replication 命令,观察7000这个节点,发现其复制配置信息已配置成主节点,并有一个从节点7003
再执行redis-cli -p 7003 info Replication发现,该节点已设置成从节点。这些主从设置,都是在创建集群时自动完成的。
至此,3主3从的Redis集群建立起来了。接下来我们做个故障转移试验,将主节点7001 shutdown掉,看看发生什么?
我们看到,从节点7004会上升为主节点继续提供集群服务。那又重新启动7001节点呢?
我们发现7001节点已经成为从节点,不会成为取代7004成为主节点。那如果将主节点7001和从节点7004都shutdown掉呢?
这时,整个cluster是拒绝提供服务的。因为原来7001分配的slot现在无节点接管,需要人工介入重新分配slots。
增删集群节点R
下面我们操作下,如果修改集群节点架构:
删除一个从节点。注意,如果删除主节点,其负责的slots必须为空。
./redis-trib.rb del-node 192.168.1.142:7000 ee2fc0ea6e630f54e3b811caedf8896b26a99cba
将7001节点的slot都转移到7000
./redis-trib.rb reshard 192.168.1.142:7000
按提示操作即可。
加一个节点。注意新添加的节点还没有分配slot,用reshard给它分配一定比例的slots
./redis-trib.rb add-node 192.168.1.142:7001 192.168.1.142:7000
给指定一个主节点添加一个从节点。
./redis-trib.rb add-node --slave --master-id f4d17d56a9dda1a102da7cd799192beff7cba69e 192.168.1.142:7004 192.168.1.142:7000
注意如果此redis实例参与过集群,需先cluster reset 清除重置一下。
Jedis客户端访问R
上面介绍了服务端Redis Cluster搭建过程。下面来看看客户端如何使用?
Java语言的客户端驱动Jedis是支持Redis Cluster的。我们具体实操下:
1. pom.xml中配置jedis jar包
<dependency>
<groupId>redis.clients</groupId>
<artifactId>jedis</artifactId>
<version>2.8.0</version> <!-- 最近升级了 -->
</dependency>
2. spring配置文件中配置JedisCluster
<bean id="poolConfig" class="redis.clients.jedis.JedisPoolConfig">
<property name="maxTotal" value="4096"/>
<property name="maxIdle" value="200"/>
<property name="maxWaitMillis" value="3000"/>
<property name="testOnBorrow" value="true" />
<property name="testOnReturn" value="true" />
</bean>
<bean id = "jedisCluster" class = "redis.clients.jedis.JedisCluster">
<constructor-arg index="0">
<set>
<bean class="redis.clients.jedis.HostAndPort">
<constructor-arg index="0" value="192.168.1.142" />
<constructor-arg index="1" value="7002" />
</bean>
</set>
</constructor-arg>
<constructor-arg index="1" value="2000" type="int"/>
<constructor-arg index="2" value="2" type="int"/>
<constructor-arg index="3" ref="poolConfig"/>
</bean>
3.编写测试代码
@Test
public void basicOpTestForCluster(){
long begin = System.currentTimeMillis();
for(int i=0;i<10000; i++){
jedis.set("person." + i + ".name", "frank");
jedis.set("person." + i + ".city", "beijing");
String name = jedis.get("person." + i + ".name");
String city = jedis.get("person." + i + ".city");
assertEquals("frank",name);
assertEquals("beijing",city);
jedis.del("person." + i + ".name");
Boolean result = jedis.exists("person." + i + ".name");
assertEquals(false,result);
result = jedis.exists("person." + i + ".city");
assertEquals(true,result);
}
long end = System.currentTimeMillis();
System.out.println("total time: " + (end-begin)/1000);
}