循例介绍一下了,redis是内存数据库,是简单的key-value结构,也是nosql数据库,因为结构简单,而且用的是内存,所以速度非常之快.至于问有多快?大家知道以前的机械硬盘,单盘速度其实也还好,而内存的读写速度是机械硬盘的6万倍.所以,redis比硬盘有多快,可见一斑了.当然现在都用固态硬盘,情况还是比以前好不少的.这里不再详细类比,知道是这回事就好. ================================ 好了,当然先说安装了,安装redis很简单,先说明,我们服务器都是linux. 首先要说明一下,内存数据库并不代表不用硬盘空间,因为会备份一定数据到硬盘的,所以还是得准备一定的硬盘空间. 下载地址: wget "http://download.redis.io/releases/redis-3.2.0.tar.gz" 是编译版本,现在都出到3.2了,不过版本差异不大,低版本只是不支持集群或主从而已,实际上功能没差. 安装也是老样子的东西,有依赖包就记得yum下 tar xzf redis-3.2.0.tar.gz cd redis-3.2.0 make 顺便说说,你要想安装在自定义目录 make prefix=(你的目录) install ok废话不多说,装完就好了. ============================================== 安装完了,就要看配置了,配置文件名可以随便改,位置也不固定要放什么位置,因为启动的时候可以指定配置文件启动 配置有很多,解析如下: 1 daemonize no 默认情况下,redis 不是在后台运行的,如果需要在后台运行,把该项的值更改为yes。 2 pidfile /var/run/redis.pid 当Redis 在后台运行的时候,Redis 默认会把pid 文件放在/var/run/redis.pid,你可以配置到其他地址。当运行多个redis 服务时,需要指定不同的pid 文件和端口 3 port 监听端口,默认为6379 4 #bind 127.0.0.1 指定Redis 只接收来自于该IP 地址的请求,如果不进行设置,那么将处理所有请求,在生产环境中为了安全最好设置该项。默认注释掉,不开启 5 timeout 0 设置客户端连接时的超时时间,单位为秒。当客户端在这段时间内没有发出任何指令,那么关闭该连接 6 tcp-keepalive 0 指定TCP连接是否为长连接,"侦探"信号有server端维护。默认为0.表示禁用 7 loglevel notice log 等级分为4 级,debug,verbose, notice, 和warning。生产环境下一般开启notice 8 logfile stdout 配置log 文件地址,默认使用标准输出,即打印在命令行终端的窗口上,修改为日志文件目录 9 databases 16 设置数据库的个数,可以使用SELECT 命令来切换数据库。默认使用的数据库是0号库。默认16个库 10 save 900 1 save 300 10 save 60 10000 保存数据快照的频率,即将数据持久化到dump.rdb文件中的频度。用来描述"在多少秒期间至少多少个变更操作"触发snapshot数据保存动作 默认设置,意思是: if(在60 秒之内有10000 个keys 发生变化时){ 进行镜像备份 }else if(在300 秒之内有10 个keys 发生了变化){ 进行镜像备份 }else if(在900 秒之内有1 个keys 发生了变化){ 进行镜像备份 } 11 stop-writes-on-bgsave-error yes 当持久化出现错误时,是否依然继续进行工作,是否终止所有的客户端write请求。默认设置"yes"表示终止,一旦snapshot数据保存故障,那么此server为只读服务。如果为"no",那么此次snapshot将失败,但下一次snapshot不会受到影响,不过如果出现故障,数据只能恢复到"最近一个成功点" 12 rdbcompression yes 在进行数据镜像备份时,是否启用rdb文件压缩手段,默认为yes。压缩可能需要额外的cpu开支,不过这能够有效的减小rdb文件的大,有利于存储/备份/传输/数据恢复 13 rdbchecksum yes 读取和写入时候,会损失10%性能 14 rdbchecksum yes 是否进行校验和,是否对rdb文件使用CRC64校验和,默认为"yes",那么每个rdb文件内容的末尾都会追加CRC校验和,利于第三方校验工具检测文件完整性 14 dbfilename dump.rdb 镜像备份文件的文件名,默认为 dump.rdb 15 dir ./ 数据库镜像备份的文件rdb/AOF文件放置的路径。这里的路径跟文件名要分开配置是因为Redis 在进行备份时,先会将当前数据库的状态写入到一个临时文件中,等备份完成时,再把该临时文件替换为上面所指定的文件,而这里的临时文件和上面所配置的备份文件都会放在这个指定的路径当中 16 # slaveof <masterip> <masterport> 设置该数据库为其他数据库的从数据库,并为其指定master信息。 17 masterauth 当主数据库连接需要密码验证时,在这里指定 18 slave-serve-stale-data yes 当主master服务器挂机或主从复制在进行时,是否依然可以允许客户访问可能过期的数据。在"yes"情况下,slave继续向客户端提供只读服务,有可能此时的数据已经过期;在"no"情况下,任何向此server发送的数据请求服务(包括客户端和此server的slave)都将被告知"error" 19 slave-read-only yes slave是否为"只读",强烈建议为"yes" 20 # repl-ping-slave-period 10 slave向指定的master发送ping消息的时间间隔(秒),默认为10 21 # repl-timeout 60 slave与master通讯中,最大空闲时间,默认60秒.超时将导致连接关闭 22 repl-disable-tcp-nodelay no slave与master的连接,是否禁用TCP nodelay选项。"yes"表示禁用,那么socket通讯中数据将会以packet方式发送(packet大小受到socket buffer限制)。 可以提高socket通讯的效率(tcp交互次数),但是小数据将会被buffer,不会被立即发送,对于接受者可能存在延迟。"no"表示开启tcp nodelay选项,任何数据都会被立即发送,及时性较好,但是效率较低,建议设为no 23 slave-priority 100 适用Sentinel模块(unstable,M-S集群管理和监控),需要额外的配置文件支持。slave的权重值,默认100.当master失效后,Sentinel将会从slave列表中找到权重值最低(>0)的slave,并提升为master。如果权重值为0,表示此slave为"观察者",不参与master选举 24 # requirepass foobared 设置客户端连接后进行任何其他指定前需要使用的密码。警告:因为redis 速度相当快,所以在一台比较好的服务器下,一个外部的用户可以在一秒钟进行150K 次的密码尝试,这意味着你需要指定非常非常强大的密码来防止暴力破解。 25 # rename-command CONFIG 3ed984507a5dcd722aeade310065ce5d (方式:MD5(‘CONFIG^!‘)) 重命名指令,对于一些与"server"控制有关的指令,可能不希望远程客户端(非管理员用户)链接随意使用,那么就可以把这些指令重命名为"难以阅读"的其他字符串 26 # maxclients 10000 限制同时连接的客户数量。当连接数超过这个值时,redis 将不再接收其他连接请求,客户端尝试连接时将收到error 信息。默认为10000,要考虑系统文件描述符限制,不宜过大,浪费文件描述符,具体多少根据具体情况而定 27 # maxmemory <bytes> redis-cache所能使用的最大内存(bytes),默认为0,表示"无限制",最终由OS物理内存大小决定(如果物理内存不足,有可能会使用swap)。此值尽量不要超过机器的物理内存尺寸,从性能和实施的角度考虑,可以为物理内存3/4。此配置需要和"maxmemory-policy"配合使用,当redis中内存数据达到maxmemory时,触发"清除策略"。在"内存不足"时,任何write操作(比如set,lpush等)都会触发"清除策略"的执行。在实际环境中,建议redis的所有物理机器的硬件配置保持一致(内存一致),同时确保master/slave中"maxmemory""policy"配置一致。 当内存满了的时候,如果还接收到set 命令,redis 将先尝试剔除设置过expire 信息的key,而不管该key 的过期时间还没有到达。在删除时, 将按照过期时间进行删除,最早将要被过期的key 将最先被删除。如果带有expire 信息的key 都删光了,内存还不够用,那么将返回错误。这样,redis 将不再接收写请求,只接收get 请求。maxmemory 的设置比较适合于把redis 当作于类似memcached的缓存来使用。 28 # maxmemory-policy volatile-lru 内存不足"时,数据清除策略,默认为"volatile-lru"。 volatile-lru ->对"过期集合"中的数据采取LRU(近期最少使用)算法.如果对key使用"expire"指令指定了过期时间,那么此key将会被添加到"过期集合"中。将已经过期/LRU的数据优先移除.如果"过期集合"中全部移除仍不能满足内存需求,将OOM. allkeys-lru ->对所有的数据,采用LRU算法 volatile-random ->对"过期集合"中的数据采取"随即选取"算法,并移除选中的K-V,直到"内存足够"为止. 如果如果"过期集合"中全部移除全部移除仍不能满足,将OOM allkeys-random ->对所有的数据,采取"随机选取"算法,并移除选中的K-V,直到"内存足够"为止 volatile-ttl ->对"过期集合"中的数据采取TTL算法(最小存活时间),移除即将过期的数据. noeviction ->不做任何干扰操作,直接返回OOM异常 另外,如果数据的过期不会对"应用系统"带来异常,且系统中write操作比较密集,建议采取"allkeys-lru" 29 # maxmemory-samples 3 默认值3,上面LRU和最小TTL策略并非严谨的策略,而是大约估算的方式,因此可以选择取样值以便检查 29 appendonly no 默认情况下,redis 会在后台异步的把数据库镜像备份到磁盘,但是该备份是非常耗时的,而且备份也不能很频繁。所以redis 提供了另外一种更加高效的数据库备份及灾难恢复方式。开启append only 模式之后,redis 会把所接收到的每一次写操作请求都追加到appendonly.aof 文件中,当redis 重新启动时,会从该文件恢复出之前的状态。但是这样会造成appendonly.aof 文件过大,所以redis 还支持了BGREWRITEAOF 指令,对appendonly.aof 进行重新整理。如果不经常进行数据迁移操作,推荐生产环境下的做法为关闭镜像,开启appendonly.aof,同时可以选择在访问较少的时间每天对appendonly.aof 进行重写一次。 另外,对master机器,主要负责写,建议使用AOF,对于slave,主要负责读,挑选出1-2台开启AOF,其余的建议关闭 30 # appendfilename appendonly.aof aof文件名字,默认为appendonly.aof 31 # appendfsync always appendfsync everysec # appendfsync no 设置对appendonly.aof 文件进行同步的频率。always 表示每次有写操作都进行同步,everysec 表示对写操作进行累积,每秒同步一次。no不主动fsync,由OS自己来完成。这个需要根据实际业务场景进行配置 32 no-appendfsync-on-rewrite no 在aof rewrite期间,是否对aof新记录的append暂缓使用文件同步策略,主要考虑磁盘IO开支和请求阻塞时间。默认为no,表示"不暂缓",新的aof记录仍然会被立即同步 33 auto-aof-rewrite-percentage 100 当Aof log增长超过指定比例时,重写log file, 设置为0表示不自动重写Aof 日志,重写是为了使aof体积保持最小,而确保保存最完整的数据。 34 auto-aof-rewrite-min-size 64mb 触发aof rewrite的最小文件尺寸 35 lua-time-limit 5000 lua脚本运行的最大时间 36 slowlog-log-slower-than 10000 "慢操作日志"记录,单位:微秒(百万分之一秒,1000 * 1000),如果操作时间超过此值,将会把command信息"记录"起来.(内存,非文件)。其中"操作时间"不包括网络IO开支,只包括请求达到server后进行"内存实施"的时间."0"表示记录全部操作 37 slowlog-max-len 128 "慢操作日志"保留的最大条数,"记录"将会被队列化,如果超过了此长度,旧记录将会被移除。可以通过"SLOWLOG <subcommand> args"查看慢记录的信息(SLOWLOG get 10,SLOWLOG reset) 38 hash-max-ziplist-entries 512 hash类型的数据结构在编码上可以使用ziplist和hashtable。ziplist的特点就是文件存储(以及内存存储)所需的空间较小,在内容较小时,性能和hashtable几乎一样.因此redis对hash类型默认采取ziplist。如果hash中条目的条目个数或者value长度达到阀值,将会被重构为hashtable。 这个参数指的是ziplist中允许存储的最大条目个数,,默认为512,建议为128 hash-max-ziplist-value 64 ziplist中允许条目value值最大字节数,默认为64,建议为1024 39 list-max-ziplist-entries 512 list-max-ziplist-value 64 对于list类型,将会采取ziplist,linkedlist两种编码类型。解释同上。 40 set-max-intset-entries 512 intset中允许保存的最大条目个数,如果达到阀值,intset将会被重构为hashtable 41 zset-max-ziplist-entries 128 zset-max-ziplist-value 64 zset为有序集合,有2中编码类型:ziplist,skiplist。因为"排序"将会消耗额外的性能,当zset中数据较多时,将会被重构为skiplist。 42 activerehashing yes 是否开启顶层数据结构的rehash功能,如果内存允许,请开启。rehash能够很大程度上提高K-V存取的效率 43 client-output-buffer-limit normal 0 0 0 client-output-buffer-limit slave 256mb 64mb 60 client-output-buffer-limit pubsub 32mb 8mb 60 客户端buffer控制。在客户端与server进行的交互中,每个连接都会与一个buffer关联,此buffer用来队列化等待被client接受的响应信息。如果client不能及时的消费响应信息,那么buffer将会被不断积压而给server带来内存压力.如果buffer中积压的数据达到阀值,将会导致连接被关闭,buffer被移除。 buffer控制类型包括:normal -> 普通连接;slave ->与slave之间的连接;pubsub ->pub/sub类型连接,此类型的连接,往往会产生此种问题;因为pub端会密集的发布消息,但是sub端可能消费不足. 指令格式:client-output-buffer-limit <class> <hard> <soft> <seconds>",其中hard表示buffer最大值,一旦达到阀值将立即关闭连接; soft表示"容忍值",它和seconds配合,如果buffer值超过soft且持续时间达到了seconds,也将立即关闭连接,如果超过了soft但是在seconds之后,buffer数据小于了soft,连接将会被保留. 其中hard和soft都设置为0,则表示禁用buffer控制.通常hard值大于soft. 44 hz 10 Redis server执行后台任务的频率,默认为10,此值越大表示redis对"间歇性task"的执行次数越频繁(次数/秒)。"间歇性task"包括"过期集合"检测、关闭"空闲超时"的连接等,此值必须大于0且小于500。此值过小就意味着更多的cpu周期消耗,后台task被轮询的次数更频繁。此值过大意味着"内存敏感"性较差。建议采用默认值。 45 # include /path/to/local.conf # include /path/to/other.conf 额外载入配置文件。 然后启动 redis-server /(自定义路径)/redis.conf 然后测试下能不能用 redis-cli -p6379(指定的端口号,可不填,即默认) set mykey "hi" ok get mykey "hi" 这就叫能用了 ============================================================================ 下面细化下操作方法 #在Shell命令行下启动Redis客户端工具。 /> redis-cli #清空当前选择的数据库,以便于对后面示例的理解。 redis 127.0.0.1:6379> flushdb OK #添加String类型的模拟数据。 redis 127.0.0.1:6379> set mykey 2 OK redis 127.0.0.1:6379> set mykey2 "hello" OK #添加Set类型的模拟数据。 redis 127.0.0.1:6379> sadd mysetkey 1 2 3 (integer) 3 #添加Hash类型的模拟数据。 redis 127.0.0.1:6379> hset mmtest username "stephen" (integer) 1 #根据参数中的模式,获取当前数据库中符合该模式的所有key,从输出可以看出,该命令在执行时并不区分与Key关联的Value类型。 redis 127.0.0.1:6379> keys my* 1) "mysetkey" 2) "mykey" 3) "mykey2" #删除了两个Keys。 redis 127.0.0.1:6379> del mykey mykey2 (integer) 2 #查看一下刚刚删除的Key是否还存在,从返回结果看,mykey确实已经删除了。 redis 127.0.0.1:6379> exists mykey (integer) 0 #查看一下没有删除的Key,以和上面的命令结果进行比较。 redis 127.0.0.1:6379> exists mysetkey (integer) 1 #将当前数据库中的mysetkey键移入到ID为1的数据库中,从结果可以看出已经移动成功。 redis 127.0.0.1:6379> move mysetkey 1 (integer) 1 #打开ID为1的数据库。 redis 127.0.0.1:6379> select 1 OK #查看一下刚刚移动过来的Key是否存在,从返回结果看已经存在了。 redis 127.0.0.1:6379[1]> exists mysetkey (integer) 1 #在重新打开ID为0的缺省数据库。 redis 127.0.0.1:6379[1]> select 0 OK #查看一下刚刚移走的Key是否已经不存在,从返回结果看已经移走。 redis 127.0.0.1:6379> exists mysetkey (integer) 0 #准备新的测试数据。 redis 127.0.0.1:6379> set mykey "hello" OK #将mykey改名为mykey1 redis 127.0.0.1:6379> rename mykey mykey1 OK #由于mykey已经被重新命名,再次获取将返回nil。 redis 127.0.0.1:6379> get mykey (nil) #通过新的键名获取。 redis 127.0.0.1:6379> get mykey1 "hello" #由于mykey已经不存在了,所以返回错误信息。 redis 127.0.0.1:6379> rename mykey mykey1 (error) ERR no such key #为renamenx准备测试key redis 127.0.0.1:6379> set oldkey "hello" OK redis 127.0.0.1:6379> set newkey "world" OK #由于newkey已经存在,因此该命令未能成功执行。 redis 127.0.0.1:6379> renamenx oldkey newkey (integer) 0 #查看newkey的值,发现它也没有被renamenx覆盖。 redis 127.0.0.1:6379> get newkey "world" 2. PERSIST/EXPIRE/EXPIREAT/TTL: #为后面的示例准备的测试数据。 redis 127.0.0.1:6379> set mykey "hello" OK #将该键的超时设置为100秒。 redis 127.0.0.1:6379> expire mykey 100 (integer) 1 #通过ttl命令查看一下还剩下多少秒。 redis 127.0.0.1:6379> ttl mykey (integer) 97 #立刻执行persist命令,该存在超时的键变成持久化的键,即将该Key的超时去掉。 redis 127.0.0.1:6379> persist mykey (integer) 1 #ttl的返回值告诉我们,该键已经没有超时了。 redis 127.0.0.1:6379> ttl mykey (integer) -1 #为后面的expire命令准备数据。 redis 127.0.0.1:6379> del mykey (integer) 1 redis 127.0.0.1:6379> set mykey "hello" OK #设置该键的超时被100秒。 redis 127.0.0.1:6379> expire mykey 100 (integer) 1 #用ttl命令看一下当前还剩下多少秒,从结果中可以看出还剩下96秒。 redis 127.0.0.1:6379> ttl mykey (integer) 96 #重新更新该键的超时时间为20秒,从返回值可以看出该命令执行成功。 redis 127.0.0.1:6379> expire mykey 20 (integer) 1 #再用ttl确认一下,从结果中可以看出果然被更新了。 redis 127.0.0.1:6379> ttl mykey (integer) 17 #立刻更新该键的值,以使其超时无效。 redis 127.0.0.1:6379> set mykey "world" OK #从ttl的结果可以看出,在上一条修改该键的命令执行后,该键的超时也无效了。 redis 127.0.0.1:6379> ttl mykey (integer) -1 3. TYPE/RANDOMKEY/SORT: #由于mm键在数据库中不存在,因此该命令返回none。 redis 127.0.0.1:6379> type mm none #mykey的值是字符串类型,因此返回string。 redis 127.0.0.1:6379> type mykey string #准备一个值是set类型的键。 redis 127.0.0.1:6379> sadd mysetkey 1 2 (integer) 2 #mysetkey的键是set,因此返回字符串set。 redis 127.0.0.1:6379> type mysetkey set #返回数据库中的任意键。 redis 127.0.0.1:6379> randomkey "oldkey" #清空当前打开的数据库。 redis 127.0.0.1:6379> flushdb OK #由于没有数据了,因此返回nil。 redis 127.0.0.1:6379> randomkey (nil) 上面这些只是一部分的用法,但是对于一般测试就足够了?,其他还有list用法和hash用法什么的,有兴趣可以更加深入研究. ---------------------------------------- 会有人问,只能用客户端连,太搓了吧,当然不会,下面说下直接命令行执行命令,先介绍下命令参数. redis-cli参数 -h 设置检测主机IP地址,默认为127.0.0.1 -p 设置检测主机的端口号,默认为6379 -s<socket> 服务器套接字(压倒主机和端口) -a 连接到Master服务器时使用的密码 -r 执行指定的N次命令 -i 执行命令后等待N秒,如–i 0.1 info(执行后等0.1秒) -n 指定连接N号ID数据库,如 –n 3(连接3号数据库) -x 从控制台输入的信息中读取最后一个参数 -d 定义多个定界符为默认输出格式(默认: \n) --raw 使用原数据格式返回输出内容 --latency 进入一个不断延时采样的特殊模式 --slave 模拟一个从服务器到主服务器的命令显示反馈 --pipe 使用管道协议模式 --bigkeys 监听显示数据量大的key值,--bigkeys -i 0.1 --help 显示命令行帮助信息 --version 显示版本号 例子: $ redis-cli进入命令行模式 $ redis-cli -n 3 set mykey "hi" 把mykey插入到第三个数据库 $ redis-cli -r 3 info 重复执行info命令三次 下面还有一些比较特别的用法 GETSET: ./redis-cli getset nid 987654321 # 表示返回指定key的原始值,并指定一个新值给他 MGET: ./redis-cli mget nid uid … # 表示获取多个key的值 SETNX: ./redis-cli setnx nnid 888888 # 表示当一个指定的key不存在时,设置这个key指定的value,如果存在,则设置不成功 SETEX: ./redis-cli setex nid 5 666666 # 表示设置一个key指定的value保存5秒后失效,设置key/value的有效期 MSET: ./redis-cli mset nid0001 "0001" nid0002 "0002" nid0003 "0003" # 表示多键值对的数据保存 INCR: ./redis-cli incr count # 表示对给定key的value进行递增(+1)的操作,当然value必须是一个integer INCRBY: ./redis-cli incrby count 5 # 表示对给定key的value进行指定步长的递增操作 DECR: ./redis-cli decr count # 表示对给定key的value进行递减(-1)的操作 DECRBY: ./redis-cli decrby count 7 # 表示对给定key的value进行指定步长的递减操作 APPEND: ./redis-cli append content "bad" 或者 ./redis-cli append content "good" # 表示追加一个value到指定的key中,如果key不存在,则新建key SUBSTR: ./redis-cli substr content 0 4 # 表示返回指定key的value的部分字符串 # 列表操作,精华 RPUSH key string — 将某个值加入到一个key列表末尾 LPUSH key string — 将某个值加入到一个key列表头部 LLEN key — 列表长度 LRANGE key start end — 返回列表中某个范围的值,相当于mysql里面的分页查询那样 LTRIM key start end — 只保留列表中某个范围的值 LINDEX key index — 获取列表中特定索引号的值,要注意是O(n)复杂度 LSET key index value — 设置列表中某个位置的值 RPOP key # 集合操作 SADD key member — 增加元素 SREM key member — 删除元素 SCARD key — 返回集合大小 SISMEMBER key member — 判断某个值是否在集合中 SINTER key1 key2 ... keyN — 获取多个集合的交集元素 SMEMBERS key — 列出集合的所有元素 ? 更新日志检查 ,加--fix参数为修复log文件 redis-check-aof appendonly.aof 检查本地数据库文件 redis-check-dump dump.rdb ======================================================== 最后,说说压力测试那些事. redis测试分两种说法,第一种就是并发压力,另一种就是容量压力了, 并发压力可以用redis自带的软件redis-benchmark来测试?,具体如下: redis-benchmark参数 -h 设置检测主机IP地址,默认为127.0.0.1 -p 设置检测主机的端口号,默认为6379 -s<socket> 服务器套接字(压倒主机和端口) -c 并发连接数 -n 请求数 -d 测试使用的数据集的大小/字节的值(默认3字节) -k 1:表示保持连接(默认值)0:重新连接 -r SET/GET/INCR方法使用随机数插入数值,设置10则插入值为rand:000000000000 - rand:000000000009 -P 默认为1(无管道),当网络延迟过长时,使用管道方式通信(请求和响应打包发送接收) -q 简约信息模式,只显示查询和秒值等基本信息。 --csv 以CSV格式输出信息 -l 无线循环插入测试数据,ctrl+c停止 -t<tests> 只运行<tests>测试逗号分隔的列表命令,如:-t ping,set,get -I 空闲模式。立即打开50个空闲连接和等待。 例子: redis-benchmark -h 127.0.0.1 -p 6379 -q -d 100 SET/GET 100 bytes 检测host为127.0.0.1 端口为6379的redis服务器性能 redis-benchmark -h 127.0.0.1 -p 6379 -c 5000 -n 100000 5000个并发连接,100000个请求,检测host为127.0.0.1 端口为6379的redis服务器性能 我们来详细解析下这条语句的意思: redis-benchmark -n 100000 -c 60 向redis服务器发送100000个请求,每个请求附带60个并发客户端 结果(部分): ====== SET ====== 对集合写入测试 100000 requests completed in 2.38 seconds 100000个请求在2.38秒内完成 60 parallel clients 每次请求有60个并发客户端 3 bytes payload 每次写入3个字节的数据 keep alive: 1 保持一个连接,一台服务器来处理这些请求 100.00% <= 62 milliseconds 所有请求在62毫秒内完成 42105.26 requests per second 每秒处理42105.26次请求 还是比较直观的 ----------------------------------- 然后说说容量测试,其实很好理解,内存不是无限的,存放数据自然就是有限,虽然说可以去配置文件去用淘汰机制限制,但是知道容量顶点还是能解决不少问题. 顺便也说说,要是你设置的maxmemory 容量不够,或者整个内存都不够,而又没有使用有效的LRU配置,那么你的redis写满了之后会提示OOM,就是说内存不够用,写不进新数据. 说的就是maxmemory-policy这个设置,具体怎么设置才是合理的,则需要从业务层面去考虑了,例如说丢了一些旧key也没所谓的,allkeys-lru就是最好了,严格来或,你用了这个策略其实也不用测试了,因为他会自动删旧key,没什么顶不顶点的概念在.. 测试容量的方法很简单,就是不停的往里面写数据,然后看他顶点是多少.? 参考脚本如下: #!/bin/sh keyset="keytest5" valueset=‘模拟数据,随便你写‘ dbname=5 a=0 for i in `seq 1 300000` do redis-cli -n $dbname ‘set‘ ${keyset}${a} "${valueset}${a}" >/dev/null #echo $a let a++ done? 测试结果很简单,看info的最后一个结果就好了,哪里会有显示现在有多少个key在. 完
时间: 2024-10-08 16:29:26