Ubuntu16.04下,rabbimq集群搭建

  rabbitmq作为企业级的消息队列,功能很齐全,既可以作为单一的部署模式,又可以做集群的部署模式

  单一部署就不说了,就是在一台服务器上部署rabbitmq消息队列,可以参考我的博客:Ubuntu16.04下,erlang安装和rabbitmq安装步骤去安装部署

  集群部署有好几种方式,具体使用哪一种,要根据自己的需求而定,这里主要介绍一下普通集群和镜像集群

  普通模式

  普通模式是集群的默认模式,集群中各个节点拥有相同的队列结构,但是队列的消息实体已保存在其中一个节点,当消费者consumer连接集群中的某个节点时,会通过集群内部通信,将消息传到当前节点,再防御给消费者consumer,举个例子:

  假设集群中有两个节点(A和B),当生产者producer将消息发布在A上,且消息实体保存在A上时,但是A和B有相同的队列结构,当消费者consumer连接到B时,B会临时的从A拉去消息,然后再返回给消费者。

  普通集群模式的部署,我们准备了三台测试服务器,IP分别是192.168.209.133,192.168.209.134,192.168.209.135,它们的hostname分别是test1,test2,test3,

  然后分别安装rabbitmq,可以参考我的博客:Ubuntu16.04下,erlang安装和rabbitmq安装步骤去安装部署,当然,如果是虚拟机安装部署,可以安装一台,然后使用虚拟机克隆两台,然后他改下hostname

  安装好rabbitmq之后,我们需要改下hosts文件,在/etc/hosts中添加  

  192.168.209.133 test1
  192.168.209.134 test2
  192.168.209.135 test3

  可以ping一下,看能不能ping通

  这里说一下,rabbitmq的集群是依赖于erlang实现的,erlang是一种分步式开发的语言,可以通过通过magic cookie认证节点来对rabbitmq进行集群设置,而这个cookie存放在rabbitmq的安装目录的.erlang.cookie文件中,所以,我们要确保各个节点中的.erlang.cookie文件中的cookie是相同的,为此,我们可以将test1中的.erlang.cookie复制到test2和test3中,覆盖test2和test3原来的.erlang.cookie(如果有就覆盖),因为我这里三台linux主机中rabbitmq的安装目录都是/opt/rabbitmq_server-3.8.1,所以我们查看test1的/opt/rabbitmq_server-3.8.1下是否存在.erlang.cookie文件,如果没有,那么将用户根目录下的.erlang.cookie文件拷贝到/opt/rabbitmq_server-3.8.1,然后在使用scp命令分别拷贝到test2,test3中去:

  

   现在test1上的rabbitmq的根目录有.erlang.cookie,再将其分别拷贝到test2和test3中的去就可以了,这里使用scp命令拷贝  

  注意,这里将拷贝过去的文件名命名为.erlang.cookie,可能会与test2和test3上原本就存在的.erlang.cookie文件冲突,建议将test2和test3中用户主目录下的.erlang.cookie删除或者重命名为其他名字

  #在test1上执行,拷贝到test2中去
  sudo scp /opt/rabbitmq_server-3.8.1/.erlang.cookie [email protected]:.erlang.cookie
  #在test1上执行,拷贝到test3中去
  sudo scp /opt/rabbitmq_server-3.8.1/.erlang.cookie [email protected]:.erlang.cookie
  #注意,这里将拷贝过去的文件名命名为.erlang.cookie,可能会与test2和test3上原本就存在的.erlang.cookie文件冲突,拷贝过程中可能会输入两次密码

  然后将test2和test3上用户主目录下的.erlang.cookie文件拷贝到rabbitmq根目录下,也就是/opt/rabbitmq_server-3.8.1目录。

  最后,为了避免不必要的错误,将三台主机中的rabbitmq全部重启一下,比如test1:  

  #查找rabbitmq相关进程
  ps -ef | grep rabbitmq
  #杀掉,可以使用-9强制杀掉
  sudo kill 5760 5761 5917
  #启动rabbitmq,命令后加个&表示在后台启动
  sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmq-server &

  

  这里有3个rabbitmq的进程,将它们全部杀掉,然后启动(启动命令后面加上一个&符号,让它在后台启动,而不至于导致当前shell卡住)

   然后在test2上执行:  

  # 停止应用
  sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmqctl stop_app
  #将test2作为内存节点添加到test1中去,--ram参数就是表示是内存节点,如果不带这个参数,就是磁盘节点,看个人需求
  sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmqctl join_cluster [email protected] --ram  # 启动应用   sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmqctl start_app

  然后在test3上执行:

  # 停止应用
  sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmqctl stop_app
  #将test3作为内存节点添加到test1中去,--ram参数就是表示是内存节点,如果不带这个参数,就是磁盘节点,看个人需求
  sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmqctl join_cluster [email protected] --ram
  # 启动应用
  sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmqctl start_app

  完事之后,可以在test1上查看节点信息:  

  sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmqctl cluster_status

  

  然后可以在浏览器打开:http://192.168.209.133:15672(http://192.168.209.134:15672和http://192.168.209.135:15672也可以,是一样的)

  使用账号登录进入就可以看到我们添加的test2和test3节点了

  如果没有账号,我们可以在test1上添加一个:  

  #添加用户,语法:rabbitmqctl add_user 账号 密码
    sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmqctl add_user  admin 123456
    #授权,语法:rabbitmqctl set_user_tags 账号 administrator
    sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmqctl set_user_tags admin administrator
    #权限主要有
    #超级管理员(administrator)、监控者(monitoring)、策略制定者(policymaker)、普通管理者(management)

  镜像模式

  上面说了,普通模式中,虽然集群中各个节点有相同的数据结构,但是数据实体只保存在其中一个节点,当其他节点需要是,需要临时拉取,那么这样就会有一个问题,当保存数据实体的节点出故障时,其他节点就无法获取到实体,必须等该节点恢复后再能拉取消息实体消费。镜像模式中把需要的队列做成镜像队列,存在于多个节点,属于RabbitMQ的HA方案,消息实体会在节点之间同步,这样算是解决了上述问题,但是这也降低了系统性能,增加了内存和磁盘的消耗,所以,实际需求要按具体情况看,在性能与高可用性之间取得一个平衡。

  镜像模式基于普通模式,或者说,镜像模式=普通模式+策略,这个可以在web管理端完成,也可以使用命令完成,这里就简单的在web管理端介绍了。

  首先,我们创建一个队列:  

  注意,添加可能会提示没权限,我们可以在Admin中去添加:

  在Admin中选择用户  

  直接点击Set Permission和Set Topic Permission就可以 了  

  队列创建后,得到结果如下    

  注意了,此时这个queue1是在test2上的,但是test1和test3有相同的queue1队列机构,当test2故障时,queue1中的消息就拉取不到了

     接着,我们可以添加一个策略:   

  添加策略后,等几秒钟,我们可以看到,队列queue应用了policy1策略,同时test1和test3对test2中的队列queue1进行了同步:  

  如果需要数据同步,显示的是这样子的  

  这里说test1和test3数据未同步,那么当test2出问题了,消息就丢了,为避免丢失,可以在任一台主机上执行同步:  

  # 同步队列queue1
  sudo /opt/rabbitmq_server-3.8.1/sbin/rabbitmqctl sync_queue queue1

  这样,哪怕test2挂了,消息仍然可以被消费

  到这里,镜像模式就算完成了,对于queue1队列,就是一种镜像队列,对于发布到queue1上的消息,都会消息实体同步到其他节点

原文地址:https://www.cnblogs.com/shanfeng1000/p/12097054.html

时间: 2024-10-07 20:49:59

Ubuntu16.04下,rabbimq集群搭建的相关文章

rabbimq集群搭建报错:Error: unable TO perform an operation ON node '[email protected]'. Please see diagnostics information AND suggestions below.

在搭建rabbitmq集群的时候,添加内存节点时,抛出异常:Error: unable TO perform an operation ON node '[email protected]'. Please see diagnostics information AND suggestions below. 首先,假设当前服务器为A,我们在A服务器执行rabbitmqctl join_cluster [email protected] --ram,就是说我们要将A服务器作为内存节点加入到B中,然

Linux下kafka集群搭建过程记录

环境准备 zookeeper集群环境kafka是依赖于zookeeper注册中心的一款分布式消息对列,所以需要有zookeeper单机或者集群环境. 三台服务器: 172.16.18.198 k8s-n1 172.16.18.199 k8s-n2 172.16.18.200 k8s-n3 下载kafka安装包 http://kafka.apache.org/downloads 中下载,目前最新版本的kafka已经到2.2.0,我这里之前下载的是kafka_2.11-2.2.0.tgz. 安装ka

Linux下ZooKeeper集群搭建

首先安装VMWare,装了两个虚拟机,版本是CentOS6.5,IP分别是 192.168.3.20 192.168.3.21 然后下载ZooKeeper包:http://zookeeper.apache.org/,使用命令tar -zxvf  zookeeper.tar.gz 进行解压,解压到/opt/soft目录 修改主机名 vim  /etc/hosts ,在hosts文件中添加一下两项 192.168.1.20 master 192.168.1.21 slave1 进入zookeeper

Centos7下Etcd集群搭建

一.简介 "A highly-available key value store for shared configuration and service discovery." Etcd是coreos开发的分布式服务系统,内部采用raft协议作为一致性算法.作为一个高可用的配置共享.服务发现的键值存储系统,Etcd有以下的特点: 1)简单:安装配置简单,而且提供了 HTTP API 进行交互,使用也很简单 2)安全:支持 SSL 证书验证 3)快速:根据官方提供的数据,单实例支持每秒

linux集群下 solr集群搭建

首先介绍一下系统架构: * 这个图中代表的是三个solr实例,每个实例包括两个core,组成一个solrcloud * 索引集合包括两个 shard(shard1和shard2),shard1和shard2分别由三个core组成,其中一个L eader两个Replication,Leader是由zookeeper选举产生,zookeeper控制每个shard上三个core的索引数据一致,解决高可用和高并发问题. * Collection在solrcloud集群中是一个索引结构,被划分为一个或多个

Ubuntu16.04下使用sublime text3搭建Python IDE

本来是想用pycharm,但你看它的内存要求,我的虚拟机一共也就1G Vim太别扭了,就算有代码颜色,不能自动对齐,不能规范格式,跳转到函数定义,显示文档,要配置起来太费劲,所以就尝试着用sublime text3 来搭建Python IDE 安装sublime text3 目前最简单的方法是通过ppa安装,打开终端,输入以下命令: sudo add-apt-repository ppa:webupd8team/sublime-text-3 sudo apt-get update sudo ap

Ubuntu16.04安装Kafka集群

下载 http://kafka.apache.org/downloads.html http://mirror.bit.edu.cn/apache/kafka/0.11.0.0/kafka_2.11-0.11.0.0.tgz [email protected]:/usr/local/kafka_2.11-0.11.0.0/config# vim server.properties broker.id=2            每个节点不同 log.retention.hours=168 mess

centos下zookeeper集群搭建

单机模式: 1)  首先下载zookeeper压缩包, 这里采用zookeeper3.4.8.... wget http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.8/zookeeper-3.4.8.tar.gz 2)   解压缩 首先创建文件夹,这里放到/user/zookeeper/文件夹下 mkdir zookeeper1 mkdir zookeeper2 mkdir zookeeper3 创建三个文件夹用于存放三个实例,下面解压

Ubuntu16.04安装zookeeper集群

http://apache.fayea.com/zookeeper/ [email protected]:/usr/local/zookeeper-3.4.9# vim /etc/profile #Zookeeper Home export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.9 export PATH=$PATH:$ZOOKEEPER_HOME/bin [email protected]:/usr/local/zookeeper-3.4.9# mki