redis单机的部署

  1. redis特点

    1.1 支持内存的缓存,相当于memcached

    1.2 数据类型丰富

    1.3 支持集群分布式

    1.4 持久化,相当于memcachedb

    1.5 redis支持10W每秒的读写频率

  2. memcache的特点

    2.1 部署简单支持高并发

    2.2 仅为内存缓存,重启服务,缓存丢失

3. redis持久化

3.1.RDB

是指在指定的时间内生成数据集的快照

每隔一段时间redis会把内存中的数据便利一下,生成一个dump.rdb的文件,存放在硬盘中,这个叫做快照,redis父进程会开辟一个子进程,这个子进程会负责rdb文件的保存的工作,父进程无需消耗磁盘的IO。但是如果服务器宕机的话,因为是按照一定的时间做的快照,所以会丢失一部分数据

3.2.AOF

持久化记录redis服务器的操作命令,redis是默认1s执行一次fsync的命令,讲数据追加到硬盘,但是这种对磁盘的I/O消耗特别的大,但是数据一致性比较完整。

4.redis的安装部署

4.1 下载安装包

yum  -y install gcc  gcc++  tcl
cd  /root
wget 
tar xf   redis-3.0.6.tar.gz

4.2编译安装

mkdir  -p /opt/redis-3.0.6
cd /root/redis-3.0.6
make
make PREFIX=/opt/redis-3.0.6 install
ln -s  /opt/redis-3.0.6  /opt/redis

4.3 拷贝配置文件

mkdir -p  /opt/redis/conf
cp  /root/redis-3.2.2  /opt/redis/conf/6379.conf
vim /opt/redis/conf/6379.conf
daemonize yes #修改为yes 守护进程启动
pidfile /var/run/redis_6379.pid  #这个要和接下来的启动脚本一致

4.4 修改启动脚本默认是没有的

cd /root/redis-3.2.2/utils
cp redis_init_script  /etc/init.d/redis6379
vi  /etc/init.d/redis6379
# chkconfig: 2345 18 91  #加上
EXEC=/opt/redis/bin/redis-server
CLIEXEC=/opt/redis/bin/redis-cli
PIDFILE=/var/run/redis_${REDISPORT}.pid
CONF="/opt/redis/conf/${REDISPORT}.conf" #注意脚本中定义的变量
chmod +x /etc/init.d/redis6379
chkconfig --add  redis6379

4.5 增加环境变量

echo "PATH=/opt/redis/bin/" >>/etc/profile
source /etc/profile

4.6 启动redis

/etc/init.d/redis6379 start
[[email protected] utils]# ps -ef |grep redis
root       5715      1  0 20:32 ?        00:00:00 /opt/redis/bin/redis-server 127.0.0.1:6379
root       5743   5654  0 20:43 pts/2    00:00:00 grep --color=auto redis
[[email protected] utils]# 
[[email protected] utils]# /etc/init.d/redis6379  stop 
Stopping ...
Redis stopped
[[email protected] utils]# ps -ef |grep redis
root       5753   5654  0 20:46 pts/2    00:00:00 grep --color=auto redis
[[email protected] utils]# 
[[email protected] utils]# redis-cli
127.0.0.1:6379>
时间: 2024-12-11 09:22:57

redis单机的部署的相关文章

Redis缓存服务部署

redis缓存服务部署

Redis高可用部署及监控

Redis高可用部署及监控 目录                        一.Redis Sentinel简介 二.硬件需求 三.拓扑结构 1.单M-S结构 2.双M-S结构 3.优劣对比 四.配置部署 1.Redis配置 2.Redis Sentinel配置 3.启动服务 4.故障模拟检测 五.备份恢复 1.备份策略 2.灾难恢复 六.运维监控 1.安全监控 2.性能监控   一.           Redis Sentinel简介   Redis Sentinel是redis自带的集

通过jedis连接redis单机成功,使用redis客户端可以连接集群,但使用JedisCluster连接redis集群一直报Could not get a resource from the pool

一,问题描述: (如题目)通过jedis连接redis单机成功,使用JedisCluster连接redis集群一直报Could not get a resource from the pool 但是使用redis客户端可以连接集群(我使用的redis desktop manager) 在java中通过jedis连接redis单机也成功,但使用JedisCluster连接redis集群一直报Could not get a resource from the pool, 我以命令行方式操作是没问题的

redis集群部署配置

Redis集群部署配置 测试环境:服务器系统为centos6.5,redis版本为3.2.2,使用一台机器,模拟6个redis实例来创建redis集群,其中3主3从 分别建立redis的安装目录,并复制redis.conf到安装目录下. 2.修改每个目录下的redis.conf配置文件 port 7000   #端口 daemonize yes cluster-enabled yes   #开启集群模式 cluster-config-file nodes-7000.conf  #集群配置文件 c

Redis集群部署文档(Ubuntu15.10系统)

Redis集群部署文档(Ubuntu15.10系统)(要让集群正常工作至少需要3个主节点,在这里我们要创建6个redis节点,其中三个为主节点,三个为从节点,对应的redis节点的ip和端口对应关系如下)127.0.0.1:7000127.0.0.1:7001127.0.0.1:7002127.0.0.1:7003127.0.0.1:7004127.0.0.1:7005 1:下载redis.官网下载3.0.0版本,之前2.几的版本不支持集群模式下载地址:http://download.redis

redis单机多实例_主从复制

上一篇讲到了redis单机单实例的安装http://my.oschina.net/xinxingegeya/blog/389155, 这一篇主要安装单机多实例,以及主从复制的配置.这就是一个redis的集群了. 单机多实例的配置 [[email protected] redis_7000]# pwd /opt/redis-2.8.19/redis_7000 [[email protected] redis_7000]# ./src/redis-cli -p 7000 127.0.0.1:7000

storm单机环境部署

前面说过storm集群的部署,这篇主要介绍storm单机环境部署,其实他们之间很类似,就是将之前配置文件中所有的集群条目改成本机的地址即可,部署之前应该按前面solr和zookeeper单机环境部署那篇文章中,正确设置好zookeeper并且启动zookeeper服务,设置方法和前面完全一致,接下来开始配置storm,首先释放storm并且放到/usr/目录下,命令如下: $ tar -xvzf apache-storm-0.9.6.tar.gz $ mkdir /usr/storm $ mv

redis集群部署之codis 维护脚本

搞了几天redis cluster codis 的部署安装,测试,架构优化,配合研发应用整合,这里记一些心得! 背景需求: 之前多个业务都在应用到redis库,各业务独立占用主从两台服务器,硬件资源利用不合理,主从架构冗余度不高,主redis故障的话,从redis恢复需要时间,降低业务的可用性, 所以调研测试部署了基于codis的redis集群. 官方地址 部署文档 参考这里redis cluster安装部署 维护管理 了解过codis的同志都知道codis集群组件服务启动有一定顺序的,而且基本

kafka本地单机安装部署

kafka是一种高吞吐量的分布式发布订阅消息系统,这几天要上kafka,只在其中的一个节点使用,结合具体的项目实践在此将kafka的本地安装部署流程记录下来与各位同仁分享交流. 准备工作: 上述的文件除了jdk以外均放在/usr/local/kafka目录下. 1.安装jdk,kafka的使用要用到jdk 首先检查有无jdk:java -version cd /usr/local/hadoop(本例中我是将jdk的安装包放到hadoop文件夹下,各位可以依据自己情况) http://www.or