activeMQ集群的安装

1.解压

tar zxvf apache-activemq-5.13.3-bin.tar.gz

2.移动解压目录分别生成不同的节点

cp -r apache-activemq-5.13.3 /usr/local/ActiveMQ-node1

cp -r apache-activemq-5.13.3 /usr/local/ActiveMQ-node2

cp -r apache-activemq-5.13.3 /usr/local/ActiveMQ-node3

3,修改每一个节点的注册方式为zookeeper (注意是每一个节点)

vim /usr/local/ActiveMQ-node1/conf/activemq.xml

注释一下信息:

<!--

#81         <persistenceAdapter>

#82             <kahaDB directory="${activemq.data}/kahadb"/>

#83         </persistenceAdapter>

-->

添加如下内容:

<persistenceAdapter>

<replicatedLevelDB

directory="${activemq.data}/leveldb"

replicas="3"

bind="tcp://0.0.0.0:0"

zkAddress="192.168.31.66:2181,192.168.31.66:2182,192.168.31.66:2183"

hostname="192.168.31.66"

sync="local_disk"

zkPath="/activemq/leveldb-stores"/>

</persistenceAdapter>

================================================================================================

说明:

<persistenceAdapter>

<replicatedLevelDB

directory="${activemq.data}/leveldb"

replicas="3"             节点数

bind="tcp://0.0.0.0:0"   对外所有ip提供服务

zkAddress="192.168.31.66:2181,192.168.31.66:2182,192.168.31.66:2183"  向zookeeper上注册的ip和监听的端口

hostname="192.168.31.66"    本机的ip

sync="local_disk"     存储数据为本地硬盘

zkPath="/activemq/leveldb-stores"/>

</persistenceAdapter>

================================================================================================

4.修改每一个节点的监听端口

修改每一个实例的监听端口,修改openwire的值,一个实例端口分别为61616,61617,61618

vim /usr/local/ActiveMQ-node1/conf/activemq.xml

<transportConnectors>

<!-- DOS protection, limit concurrent connections to 1000 and frame size to 100MB -->

<transportConnector name="openwire" uri="tcp://0.0.0.0:61617?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>

<transportConnector name="amqp" uri="amqp://0.0.0.0:5672?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>

<transportConnector name="stomp" uri="stomp://0.0.0.0:61613?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>

<transportConnector name="mqtt" uri="mqtt://0.0.0.0:1883?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>

<transportConnector name="ws" uri="ws://0.0.0.0:61614?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>

</transportConnectors>

5.如果在一台物理机上做三个节点,必须修改节点的默认管理端口,否侧端口占用

vim /usr/local/ActiveMQ-node1/conf/jetty.xml

#115         <property name="port" value="8162"/>        默认为8161

6.分别启动,关闭三个节点,查看三个节点的状态

/usr/local/ActiveMQ-node1/bin/activemq start/status/stop

7.将集群节点添加为系统服务并设为开机自启

节点一

vim /etc/init.d/activemq-node1

#!/bin/sh

# activemq

# chkconfig: 345 63 37

# description: activemq-node1

. /etc/rc.d/init.d/functions

. /etc/sysconfig/network

case $1 in

start)

sh /usr/local/activeMQ-node1/bin/activemq start

;;

stop)

sh /usr/local/activeMQ-node1/bin/activemq stop

;;

status)

sh /usr/local/activeMQ-node1/bin/activemq status

;;

restart)

sh /usr/local/activeMQ-node1/bin/activemq stop

sh /usr/local/activeMQ-node1/bin/activemq start

;;

esac

exit 0

添加执行权限

chmod +x /etc/init.d/activemq-node1

添加系统服务,设为开机自启

chkconfig --add activemq-node1

chkconfig activemq-node1 on

节点二,节点三类似如上,注意节点目录

时间: 2024-10-05 19:03:58

activeMQ集群的安装的相关文章

47.ActiveMQ集群

(声明:本文非EamonSec原创) 使用ZooKeeper实现的Master-Slave实现方式,是对ActiveMQ进行高可用的一种有效的解决方案,高可用的原理:使用ZooKeeper(集群)注册所有的ActiveMQBroker.只有其中的一个Broker可以对外提供服务(也就是Master节点),其他的Broker处于待机状态,被视为Slave.如果Master因故障而不能提供服务,则利用ZooKeeper的内部选举机制会从Slave中选举出一个Broker充当Master节点,继续对外

基于zookeeper+leveldb搭建activemq集群--转载

原地址:http://www.open-open.com/lib/view/open1410569018211.html 自从activemq5.9.0开始,activemq的集群实现方式取消了传统的 Master-Slave方式,增加了基于zookeeper+leveldb的实现方式,其他两种方式:目录共享和数据库共享依然存在.本文主要阐述基 于zookeeper和leveldb搭建activemq集群,这里需要特别提醒,本文实现的集群仅提供主备功能,避免单点故障,没有负载均衡功能. 下面开始

基于zookeeper+leveldb搭建activemq集群

自从activemq5.9.0开始,activemq的集群实现方式取消了传统的Master-Slave方式,增加了基于zookeeper+leveldb的实现方式,其他两种方式:目录共享和数据库共享依然存在.本文主要阐述基于zookeeper和leveldb搭建activemq集群,这里需要特别提醒,本文实现的集群仅提供主备功能,避免单点故障,没有负载均衡功能. 下面开始我们的征途. 一.搭建zookeeper集群 关于搭建zookeeper集群的文章请参考:zookeeper的集群模式下的安装

架构设计:系统间通信(26)——ActiveMQ集群方案(下)

(接上文<架构设计:系统间通信(26)--ActiveMQ集群方案(上)>) 3.ActiveMQ热备方案 ActiveMQ热备方案,主要保证ActiveMQ的高可用性.这种方案并不像上节中我们主要讨论的ActiveMQ高性能方案那样,同时有多个节点都处于工作状态,也就是说这种方案并不提高ActiveMQ集群的性能:而是从集群中的多个节点选择一个,让其处于工作状态,集群中其它节点则处于待命状态.当主要的工作节点由于各种异常情况停止服务时,保证处于待命的节点能够无缝接替其工作. 3-1.Acti

[转载]关于ActiveMQ集群

转载于 http://blog.csdn.net/nimmy/article/details/6247289 近日因工作关系,在研究JMS,使用ActiveMQ作为提供者,考虑到消息的重要,拟采用ActiveMQ的集群,网上查询,资料很少,且语焉不详,最后还是看Apache提供的官方文档(俺E文不好,楞是拿金山词霸一个一个单词的看,累啊),终于做出来了,于是形诸于文,以供有需要的朋友参考 本文阐述了使用 Pure Master Slave 方式 以及 JDBC Master Slave 方式s解

ActiveMQ集群搭建

在虚拟机安装centos7,要提前安装好jdk环境 工作流程:在ZooKeeper中管理多个Broker节点,根据 Master选举策略让其中一个 Broker选举为Master(只有Master才具备对外提供服务的能力),剩下Broker为slave.编码时,client端(消费者)通过failover协议来连接ActiveMQ集群. 一.zookeeper 安装配置   服务端口 投票端口 选举端口 zk1 2181 2887 3887 zk2 2182 2888 3888 zk3 2183

FastDFS&#160;集群的安装、配置、使用

FastDFS 集群的安装.配置.使用 FastDFS 介绍(参考:http://www.oschina.net/p/fastdfs) FastDFS 是一个开源的分布式文件系统,它对文件进行管理,功能包括:文件存储.文件同步.文件 访问(文件上传.文件下载)等,解决了大容量存储和负载均衡的问题.特别适合以文件为载体的在线服务,如相册网站.视频网站等等. FastDFS 服务端有两个角色:跟踪器(tracker)和存储节点(storage).跟踪器主要做调度工作,在访问上起负载均衡的作用.存储节

Apache Hadoop集群离线安装部署(三)——Hbase安装

Apache Hadoop集群离线安装部署(一)--Hadoop(HDFS.YARN.MR)安装:http://www.cnblogs.com/pojishou/p/6366542.html Apache Hadoop集群离线安装部署(二)--Spark-2.1.0 on Yarn安装:http://www.cnblogs.com/pojishou/p/6366570.html Apache Hadoop集群离线安装部署(三)--Hbase安装:http://www.cnblogs.com/po

分布式ActiveMQ集群

分布式ActiveMQ集群的部署配置细节: 官方资料:http://activemq.apache.org/clustering.html 基本上看这个就足够了,本文就不具体分析配置文件了. 1.Queue consumer clusters: 同一个queue,如果一个consumer失效,那么未被确认的消息都会被发送到这个queue的其它consumer上.如果某个consumer处理消息比较快,那么它将处理更多的消息. Queue consumer clusters 不需要特殊的配置. 2