zookeeper+activemq主备简单配置

硬件环境:
       三台linux服务器:192.168.2.13,192.168.2.15,192.168.2.16。
       推荐部署在三台机器上,都部署在一台机器还是会有单点故障,最少1G的内存就够了。

下载最新版本的zookeeper,apache-activemq(都是linux的64位,jdk什么的就不说了)

下面的配置三台机器基本都是一样,特别之处有备注,下面开始搭建。

1.新建文件夹 mqzk (可自己定义)
2.解压zookeeper,activmq到此目录。这里路径为:~/mqzk/zookeeper, ~/mqzk/activmq
3.配置zookeeper

3.1 配置conf/zoo.cfg(zoo.cfg默认不存在的,需要把zoo_sample.cfg文件名称修改为zoo.cfg)

打开zoo.cfg,修改dataDir=当前zookeeper的data文件夹目录(如果没有data文件夹,就创建一个)

这里有三台zookeeper所以这里要配置下集群server,在zoo.cfg最后面添加三行:
                server.1=192.168.2.13:2888:3888 (本机ip)
                server.2=192.168.2.15:2888:3888 (第二台机ip)
                server.3=192.168.2.16:2888:3888 (第三台机ip)
            这里的三个server,对应着3台linux服务器(ok)。
         保存退出。

3.2 进入 ~/mqzk/zookeeper/data文件夹,新建myid文件。打开myid文件,里面输入1保存退出。
                 输入1的原因是因为上面的server.1,所以这个值在3台zookeeper里是不一样的。

3.3 到此配置结束。其他两台按照此配置就可以了。

3.4 假设三台都配置好了,开始依次重启这3台服务器:进入zookeeper/bin目录,执行./zkServer.sh start 启动

4.配置activemq
    
     4.1 这里主要是配置activemq/confg目录下的activemq.xml文件,打开activemq.xml文件。
         找到  <broker xmlns="http://activemq.apache.org/schema/core" brokerName="panguixiangbroker" dataDirectory="${activemq.data}">
                将 brokerName的值改为自己需要的字符串(我这里是panguixiangbroker);
                 要特别注意这里,这个brokerName的值必须三台activemq一样(这样zookeeper才会认为是一个集群的)
     
     4.2 找到:
          <persistenceAdapter>
             <kahaDB directory="${activemq.data}/kahadb"/>
          </persistenceAdapter>

改为:
          <persistenceAdapter>
            <replicatedLevelDB
               directory="${activemq.data}/leveldb"
               replicas="3"   <!--这里有三台所以就3了-->
               bind="tcp://0.0.0.0:0"
               zkAddress="192.168.2.13:2181,192.168.2.15:2181,192.168.2.16:2181"
               hostname="192.168.2.13"    <!--当前机器的ip-->
               zkPath="/activemq/leveldb-stores" sync="local_disk"/>   <!--这个是默认的不用改-->
           <!--<kahaDB directory="${activemq.data}/kahadb"/> -->
          </persistenceAdapter>

保存退出

其他两台active mq的配置类似。

依次启动3台 activemq。(bin/linux-64/./activemq start)

在浏览器访问:http://192.168.2.13:8161,http://192.168.2.15:8161,http://192.168.2.16:8161 
  发现只有一台可以正常访问,这就对了。

然后在spring的jms配置文件里,引用集群mq,例如: failover:(tcp://192.168.2.13:61616, tcp://192.168.2.15:61616 , tcp://192.168.2.16:61616 ) 。

到此全部结束,当然这只是个简单的配置,更多配置参数请参考:

http://activemq.apache.org/replicated-leveldb-store.html

zookeeper有也有对外的api(java,ruby,python,php,等版本),可以根据业务需要开发适合直接的监控管理系统。
不在本文范围之类。

时间: 2024-10-27 05:07:35

zookeeper+activemq主备简单配置的相关文章

CentOS6.5和CentOS7.0双网卡主备模式配置

双网卡主备模式配置(bond0) 1     简述 通过双网卡设置主备模式,实现当一块网卡宕掉时,另外一块网卡可以自动顶替宕掉的网卡工作,保障网络正常访问. 2     实现 2.1.  查看网卡信息 执行ifconfig -a命令 2.2.  修改网卡配置文件 切换工作目录 cd /etc/sysconfig/network-scripts/ 修改网卡配置文件ifcfg-eth0 ,保证以下几项内容正确: TYPE=Ethernet BOOTPROTO=dhcp ONBOOT=yes MAST

centos下mysql源码编译安装和主备异步配置

安装机器:10.11.1.193.10.11.1.194 主备同步方式:异步同步 mysql版本:mysql community5.6.28 下载源码并解压: tar -zxf mysql-5.6.28.tar.gz cmake安装: 安装编译所需环境: sudo yum install make gcc-c++ cmake bison-develncurses-devel libaio libaio-devel net-tools perl 编译安装mysql cmake-DCMAKE_INS

Linux环境下DNS服务器原理及主服务器简单配置

1,DNS介绍 DNS(Domain Name System,域名系统),因特网上作为域名和IP地址相互映射的一个分布式数据库,能够使用户更方便的访问互联网,而不用去记住能够被机器直接读取的IP数串.通过主机名,最终得到该主机名对应的IP地址的过程叫做域名解析(或主机名解析). 监听的协议端口:UDP/TCP 53 软件实现:bind 2,DNS数状结构: 如下图: 根域:. 一级域如下: 组织域:.com, .org, .net, .mil, .edu, .gov, .info, .cc, .

ServHa双机热备简单配置

1部署好服务(每台机器上都要部署全部服务) 2安装ServHA,安装完成重启 3在第一台机器上打开ServHA,输入本机ip(要部署的机器ip),密码为1 4配置心跳 5创建节点(2个机器2个节点) 5给2台机器即2个节点分别创建IPV4资源(对外ip) 6创建服务和进程资源(进程选中运行到桌面) 7将资源拖到ip下 8在另一台机器上双击打开servHa使用与第一台机器相同的ip登陆,查看节点资源等,若与第一台机器相对应即为设置正常 9验证:分别关闭2台机器,查看对应的服务是否在对方机器启动

DRBD的主备安装配置

1.使用的资源:1.1 系统centos6.9 mini1.2 两台节点主机node1.node2 192.168.1.132 node1 192.168.1.124 node21.3 DRBD disk: /dev/sdb1 10G DRBD device: /dev/drbd1 DRBD resource: vz1 挂载目录 /vz/vz1 2.设置hostname,ip地址,关闭iptables,selinux 2.1 node1[[email protected] ~]# hostnam

F5双机(主备)配置详解

详细请查看我的有道云笔记: http://note.youdao.com/noteshare?id=1a8fa875d57e1bab9af1c54c883727a3&sub=E834FFFD584041FE81B0EC2F93E797D8

keepalive基础知识及主备模型搭建

lvs模型属于单点故障,对real server的健康状态检查可以通过写脚本实现,keepalived可以实现高可用: keepalive:vrrp协议在Linux主机上以守护进程方式的实现: 能够根据配置文件生成ipvs规则,并对各RS的健康做检测:vrrp_script, vrrp_track: keepalive组件: 核心组件:(checkers vrrp stack ipvs wrapperwatch dog).IO复用器.内存管理.配置文件分析器 keepalive配置前提: 1.各

mysql主从配置&&基于keepalived的主备切换

mysql互为主从设置 && 主备切换配置 需求说明: 1.公司架构一直是一台单独的mysql在线上跑,虽然一直没有出现什么宕机事件,但是出于一个高可用的考虑,提出主从备份.主备切换的需求: 2.实现这个需求的前一段时间只是在做数据库备份的时候实现了主从热备,为了实现主备切换功能,继续操作上述需求: 实验环境: master1:10.1.156.3:3306 master2:10.1.156.5:3306 my.cnf配置文件关于主从这块的修改: master1: server-id =

mysql主备配置方法

主备复制配置 1,主备创建账号 GRANT REPLICATION SLAVE,REPLICATION CLIENT ON *.* TO [email protected]’172.16.0.%’ IDENTIFIED BY ‘rep’; 2,配置主库 My.cnf log_bin=mysql-bin server_id=10 innodb_flush_log_at_trx_commit=1 sync_binlog=1 3,配置从库 log_bin=mysql-bin server_id=2 r