47.ActiveMQ集群

(声明:本文非EamonSec原创)

  使用ZooKeeper实现的Master-Slave实现方式,是对ActiveMQ进行高可用的一种有效的解决方案,高可用的原理:使用ZooKeeper(集群)注册所有的ActiveMQBroker。只有其中的一个Broker可以对外提供服务(也就是Master节点),其他的Broker处于待机状态,被视为Slave。如果Master因故障而不能提供服务,则利用ZooKeeper的内部选举机制会从Slave中选举出一个Broker充当Master节点,继续对外提供服务。

  

官网文档如下:
http://activemq.apache.org/replicated-leveldb-store.html

二:部署方案,ActiveMQ集群环境准备:
(1)首先我们下载apache-activemq-5.11.1-bin.tar.gz,到我们的一台主节点上去,然后我们在(192.168.1.111一个节点上实现集群即可)
(2)Zookeeper方案

(3)ActiveMQ方案

2:首先搭建zookeeper环境
3:继续搭建activemq环境
(1)在192.168.1.111节点下,创建/usr/local/activemq-cluster文件夹,解压apache-activemq-5.11.1-bin.tar.gz文件,然后对解压好的文件改名,操作如下:

1 命令:mkdir /usr/local/activemq-cluster
2 命令:cd software/
3 命令:tar -zxvf apache-activemq-5.11.1-bin.tar.gz -C/usr/local/activemq-cluster/
4 命令:cd /usr/local/activemq-cluster/
5 命令:mv apache-activemq-5.11.1/ node1如此操作,再次反复解压apache-activemq-5.11.1-bin.tar.gz文件到/usr/local/activemq-cluster/下,建立node2和node3文件夹

(2)那我们现在已经解压好了三个mq节点也就是node1、node2、node3,下面我们要做的事情就是更改每个节点不同的配置和端口(由于是在一台机器上实现集群)。

1 修改控制台端口(默认为8161),在mq安装路径下的conf/jetty.xml进行修改即可。(三个节点都要修改,并且端口都不同)
1命令:cd /usr/local/activemq-cluster/node1/conf/
2命令:vim /usr/local/activemq-cluster/node1/conf/jetty.xml

  

  三个节点都需要修改为8161、8162、8163!!!2 集群配置文件修改:我们在mq安装路径下的conf/activemq.xml进行修改其中的持久化适配器,修改其中的bind、zkAddress、hostname、zkPath。然后也需要修改mq的brokerName,并且每个节点名称都必须相同。命令:vim /usr/local/activemq-cluster/node1/conf/activemq.xml

第一处修改:brokerName=”activemq-cluster”(三个节点都需要修改)

第二处修改:先注释掉适配器中的kahadb

第三处修改:添加新的leveldb配置如下(三个节点都需要修改,分别是62621,62622,62623)

<replicatedLevelDB
                directory="${activemq.data}/leveldb"
                replicas="3"
                bind="tcp://0.0.0.0:62622"
                zkAddress="192.168.1.16:2181,192.168.1.17:2181,192.168.1.18:2181"
                hostname="sgm"
                zkPath="/activemq/leveldb-stores"       
           >

</replicatedLevelDB>

第四处修改:(修改通信的端口,避免冲突)
命令:vim /usr/local/activemq-cluster/node1/conf/activemq.xml,修改这个文件的通信端口号,三个节点都需要修改(51511,51512,51513)

到此为止,我们的activemq集群环境已经搭建完毕!

三:测试启动activemq集群:

第一步:启动zookeeper集群,命令:zkServer.sh start
第二步:启动mq集群:顺序启动mq:命令如下:
/usr/local/activemq-cluster/node1/bin/activemq start(关闭stop)
/usr/local/activemq-cluster/node2/bin/activemq start(关闭stop)
/usr/local/activemq-cluster/node3/bin/activemq start(关闭stop)
第三步:查看日志信息:
tail -f /usr/local/activemq-cluster/node1/data/activemq.log
tail -f /usr/local/activemq-cluster/node2/data/activemq.log
tail -f /usr/local/activemq-cluster/node3/data/activemq.log
如果不报错,我们的集群启动成功,可以使用控制台查看!
第四步:集群的brokerUrl配置进行修改即可:
failover:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://192.168.1.111:51513)?Randomize=false
/usr/local/activemq-cluster/node1/bin/activemq stop
/usr/local/activemq-cluster/node2/bin/activemq stop
/usr/local/activemq-cluster/node3/bin/activemq stop
zkServer.sh stop

第四:负载均衡配置如下:

集群1链接集群2:
<networkConnectors>
<networkConnector
uri="static:(tcp://192.168.1.112:51514,tcp://192.168.1.112:51515,tcp://192.168.1.112:51516)"
duplex="false"/>
</networkConnectors>
集群2链接集群1:
<networkConnectors>
<networkConnector
uri="static:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://192.168.1.111:51513)"
duplex="false"/>
</networkConnectors>

时间: 2024-10-01 07:09:49

47.ActiveMQ集群的相关文章

分布式ActiveMQ集群

分布式ActiveMQ集群的部署配置细节: 官方资料:http://activemq.apache.org/clustering.html 基本上看这个就足够了,本文就不具体分析配置文件了. 1.Queue consumer clusters: 同一个queue,如果一个consumer失效,那么未被确认的消息都会被发送到这个queue的其它consumer上.如果某个consumer处理消息比较快,那么它将处理更多的消息. Queue consumer clusters 不需要特殊的配置. 2

基于zookeeper+leveldb搭建activemq集群--转载

原地址:http://www.open-open.com/lib/view/open1410569018211.html 自从activemq5.9.0开始,activemq的集群实现方式取消了传统的 Master-Slave方式,增加了基于zookeeper+leveldb的实现方式,其他两种方式:目录共享和数据库共享依然存在.本文主要阐述基 于zookeeper和leveldb搭建activemq集群,这里需要特别提醒,本文实现的集群仅提供主备功能,避免单点故障,没有负载均衡功能. 下面开始

架构设计:系统间通信(25)——ActiveMQ集群方案(上)

1.综述 通过之前的文章,我们讨论了ActiveMQ的基本使用,包括单个ActiveMQ服务节点的性能特征,关键调整参数:我们还介绍了单个ActiveMQ节点上三种不同的持久化存储方案,并讨论了这三种不同的持久化存储方案的配置和性能特点.但是这还远远不够,因为在生产环境中为了保证让我们设计的消息服务方案能够持续工作,我们还需要为消息中间件服务搭建集群环境,从而在保证消息中间件服务可靠性和处理性能. 2.ActiveMQ多节点方案 集群方案主要为了解决系统架构中的两个关键问题:高可用和高性能.Ac

基于zookeeper+leveldb搭建activemq集群

自从activemq5.9.0开始,activemq的集群实现方式取消了传统的Master-Slave方式,增加了基于zookeeper+leveldb的实现方式,其他两种方式:目录共享和数据库共享依然存在.本文主要阐述基于zookeeper和leveldb搭建activemq集群,这里需要特别提醒,本文实现的集群仅提供主备功能,避免单点故障,没有负载均衡功能. 下面开始我们的征途. 一.搭建zookeeper集群 关于搭建zookeeper集群的文章请参考:zookeeper的集群模式下的安装

架构设计:系统间通信(26)——ActiveMQ集群方案(下)

(接上文<架构设计:系统间通信(26)--ActiveMQ集群方案(上)>) 3.ActiveMQ热备方案 ActiveMQ热备方案,主要保证ActiveMQ的高可用性.这种方案并不像上节中我们主要讨论的ActiveMQ高性能方案那样,同时有多个节点都处于工作状态,也就是说这种方案并不提高ActiveMQ集群的性能:而是从集群中的多个节点选择一个,让其处于工作状态,集群中其它节点则处于待命状态.当主要的工作节点由于各种异常情况停止服务时,保证处于待命的节点能够无缝接替其工作. 3-1.Acti

ActiveMQ集群应用

ActiveMQ集群 ActiveMQ具有强大和灵活的集群功能,但在使用的过程中会发现很多的缺点,ActiveMQ的集群方式主要由两种:Master-Slave和Broker Cluster. 1.Master-Slave Master-Slave方式中,只能是Master提供服务,Slave是实时地备份Master的数据,以保证消息的可靠性.当Master失效时,Slave会自动升级为Master,客户端会自动连接到Slave上工作.Master-Slave模式分为三类:Pure Master

分布式ActiveMQ集群--转载

原文地址:http://shensy.iteye.com/blog/1752529 回顾总结前一段时间学习的ActiveMQ分布式集群相关的知识,分享出来希望对看到的人有所帮助. 一.分布式ActiveMQ集群的部署配置细节: 官方资料:http://activemq.apache.org/clustering.html 基本上看这个就足够了,本文就不具体分析配置文件了. 1.Queue consumer clusters: 同一个queue,如果一个consumer失效,那么未被确认的消息都会

[转载]关于ActiveMQ集群

转载于 http://blog.csdn.net/nimmy/article/details/6247289 近日因工作关系,在研究JMS,使用ActiveMQ作为提供者,考虑到消息的重要,拟采用ActiveMQ的集群,网上查询,资料很少,且语焉不详,最后还是看Apache提供的官方文档(俺E文不好,楞是拿金山词霸一个一个单词的看,累啊),终于做出来了,于是形诸于文,以供有需要的朋友参考 本文阐述了使用 Pure Master Slave 方式 以及 JDBC Master Slave 方式s解

ActiveMQ集群整体认识

出自:https://segmentfault.com/a/1190000014592517 前言 最终需要掌握 Replicated LevelDB Store部署方式,这种部署方式是基于ZooKeeper的. 集群分为两种方式: 1.伪集群:集群节点都搭在一台机器上 2.真集群:集群节点分布在多台机器上 更多详细:真集群与伪集群的区别 一.为什么使用集群? 实现高可用,以排除单点故障引起的服务中断. 实现负载均衡,以提升效率为更多的客户提供服务. 二.ActiveMQ集群部署方式 Activ