rocketmq集群部署(多master多slave异步)

一、最近公司在做队列的技术选型,经过调研,决定使用rocketmq作为整个架构的队列层,我们之前的公司是用RabbitMQ,集群部署参考我之前的文章:RabbitMQ集群部署;rocketmq集群由NameServer和Broker两种角色组成,NameServer是无状态的可以横向部署多台达到消除单点的目的;Broker分多master、多master多slave同步、多master多slave异步这三种部署方案,一般生产环境都使用的是多master多slave异步这种方案,关于这三种方案的优缺点对比如下:
多Master模式(2m-noslave) :
一个集群无Slave,全是Master,例如2个Master或者3个Master
优点:配置简单,单个Master宕机或重启维护对应用无影响,在磁盘配置为RAID10时,即使机器宕机不可恢复情况下,由于RAID10磁盘非常可靠,消息也不会丢(异步刷盘丢失少量消息,同步刷盘一条不丢)。性能最高。
缺点:单台机器宕机期间,这台机器上未被消费的消息在机器恢复之前不可订阅,消息实时性会受到受到影响。
多Master多Slave模式,异步复制(2m-2s-async) :
每个Master配置一个Slave,有多对Master-Slave,HA采用异步复制方式,主备有短暂消息延迟,毫秒级。
优点:即使磁盘损坏,消息丢失的非常少,且消息实时性不会受影响,因为Master宕机后,消费者仍然可以从Slave消费,此过程对应用透明。不需要人工干预。性能同多Master模式几乎一样。
缺点:Master宕机,磁盘损坏情况,会丢失少量消息。
多Master多Slave模式,同步双写(2m-2s-sync)
每个Master配置一个Slave,有多对Master-Slave,HA采用同步双写方式,主备都写成功,向应用返回成功。
优点:数据与服务都无单点,Master宕机情况下,消息无延迟,服务可用性与数据可用性都非常高
缺点:性能比异步复制模式略低,大约低10%左右,发送单个消息的RT会略高。目前主宕机后,备机不能自动切换为主机,后续会支持自动切换功能。
二、环境
1、版本
JDK版本 :openjdk version "1.8.0_161"
rocketmq版本:4.2.0
rocketmq-console-ng版本:1.0.0
2、角色
rocketmq-console-ng(监控管理):
192.168.54.26:8080
NameServer:
192.168.47.183:9876
192.168.47.184:9876
broker:
192.168.47.183:10911 master broker-a
192.168.47.184:10911 slave broker-a
192.168.47.185:10911 master broker-b
192.168.47.186:10911 slave broker-b
三、部署
1、下载二进制包并解压

mkdir /chj/app/rocketmq -p;cd /chj/app/rocketmq
wget http://mirrors.shu.edu.cn/apache/rocketmq/4.2.0/rocketmq-all-4.2.0-bin-release.zip

unzip rocketmq-all-4.2.0-bin-release.zip
2、撰写配置文件,默认的配置不能满足我们的需求,需要我们自己添加定制相关的参数,由于我们要部署的是多master多slave的异步方案,所以我们修改或者添加/chj/app/rocketmq/conf/2m-2s-async目录下的配置文件即可(建议在broker的一台节点上把所有的配置文件都撰写好,统一分发到所有节点,保持所有节点的配置文件一致,起服务的时候不同的节点使用不同的配置文件即可,方便后期维护)
A、4个文件的差异配置

vim broker-a.properties

brokerName=broker-a
brokerId=0
brokerRole=ASYNC_MASTER

vim broker-a-s.properties

brokerName=broker-a
brokerId=1
brokerRole=SLAVE

vim broker-b.properties

brokerName=broker-b
brokerId=0
brokerRole=ASYNC_MASTER

vim broker-b-s.properties

brokerName=broker-b
brokerId=1
brokerRole=SLAVE

B、初了上面的配置每个配置文件不一样,下面的配置都一样

#所属集群名字
brokerClusterName=rocketmq-cluster-test
#broker名字,注意此处不同的配置文件填写的不一样,
#brokerName=broker-a
#0 表示 Master,>0 表示 Slave
#brokerId=0
#nameServer地址,分号分割
namesrvAddr=192.168.47.183:9876;192.168.47.184:9876
#在发送消息时,自动创建服务器不存在的topic,默认创建的队列数
defaultTopicQueueNums=4
#是否允许 Broker 自动创建Topic,建议线下开启,线上关闭
autoCreateTopicEnable=true
#是否允许 Broker 自动创建订阅组,建议线下开启,线上关闭
autoCreateSubscriptionGroup=true
#Broker 对外服务的监听端口
listenPort=10911
#删除文件时间点,默认凌晨 4点
deleteWhen=04
#文件保留时间,默认 48 小时
fileReservedTime=120
#commitLog每个文件的大小默认1G
mapedFileSizeCommitLog=1073741824
#ConsumeQueue每个文件默认存30W条,根据业务情况调整
mapedFileSizeConsumeQueue=300000
#destroyMapedFileIntervalForcibly=120000
#redeleteHangedFileInterval=120000
#检测物理文件磁盘空间
diskMaxUsedSpaceRatio=88
#存储路径
storePathRootDir=/chj/data/rocketmq/store
#commitLog 存储路径
storePathCommitLog=/chj/data/rocketmq/store/commitlog
#消费队列存储路径存储路径
storePathConsumeQueue=/chj/data/rocketmq/store/consumequeue
#消息索引存储路径
storePathIndex=/chj/data/rocketmq/store/index
#checkpoint 文件存储路径
storeCheckpoint=/chj/data/rocketmq/store/checkpoint
#abort 文件存储路径
abortFile=/chj/data/rocketmq/store/abort
#限制的消息大小
maxMessageSize=65536

#flushCommitLogLeastPages=4
#flushConsumeQueueLeastPages=2
#flushCommitLogThoroughInterval=10000
#flushConsumeQueueThoroughInterval=60000
#Broker 的角色
#- ASYNC_MASTER 异步复制Master
#- SYNC_MASTER 同步双写Master
#- SLAVE
#brokerRole=ASYNC_MASTER

#刷盘方式
#- ASYNC_FLUSH 异步刷盘
#- SYNC_FLUSH 同步刷盘
flushDiskType=ASYNC_FLUSH
#checkTransactionMessageEnable=false
#发消息线程池数量
#sendMessageThreadPoolNums=128
#拉消息线程池数量
#pullMessageThreadPoolNums=128

3、启动服务
NameServer启动(两个节点的启动方法一样)
cd /chj/app/rocketmq/&& nohup ./bin/mqnamesrv &
192.168.47.183上启动Broker
cd /chj/app/rocketmq/&& nohup sh /chj/app/rocketmq/bin/mqbroker -c /chj/app/rocketmq/conf/2m-2s-async/broker-a.properties >/chj/log/rocketmq/broker-a.log >/dev/null 2>&1 &
192.168.47.184上启动Broker
cd /chj/app/rocketmq/&& nohup sh /chj/app/rocketmq/bin/mqbroker -c /chj/app/rocketmq/conf/2m-2s-async/broker-a-s.properties >/chj/log/rocketmq/broker-a-s.log >/dev/null 2>&1 &
192.168.47.185上启动Broker
cd /chj/app/rocketmq/&& nohup sh /chj/app/rocketmq/bin/mqbroker -c /chj/app/rocketmq/conf/2m-2s-async/broker-b.properties >/chj/log/rocketmq/broker-b.log >/dev/null 2>&1 &
192.168.47.186上启动Broker
cd /chj/app/rocketmq/&& nohup sh /chj/app/rocketmq/bin/mqbroker -c /chj/app/rocketmq/conf/2m-2s-async/broker-b-s.properties >/chj/log/rocketmq/broker-b-s.log >/dev/null 2>&1 &
四、rocketmq-console-ng部署
rocketmq-console-ng是rocketmq的一个可视化的监控工具,项目地址:github地址,它可以用传统的部署方式也可以使用docker的部署方式,我们选择docker这种方式部署。

docker pull styletang/rocketmq-console-ng
docker run  -itd -e "JAVA_OPTS=-Drocketmq.namesrv.addr=192.168.47.183:9876 -Dcom.rocketmq.sendMessageWithVIPChannel=false" -p 8080:8080 -t styletang/rocketmq-console-ng

访问192.168.54.26:8080,查看cluster状态

PS:参考链接
http://blog.csdn.net/lovesomnus/article/details/51769977
http://blog.csdn.net/jayjjb/article/details/70140667

原文地址:http://blog.51cto.com/navyaijm/2087313

时间: 2024-07-28 19:37:43

rocketmq集群部署(多master多slave异步)的相关文章

RocketMQ集群部署配置

目标,使用2台机器部署RocketMQ多Master多Slave模式,异步复制集群模式. 第一步,修改/etc/hosts文件 192.168.116.115 rocketmq1 192.168.116.116 rocketmq2 集群机器配置完成之后,集群内进行ping一下,确保都通. 编译得到环境 git clone -b develop https://github.com/apache/rocketmq.git cd rocketmq mvn -Prelease-all -DskipTe

RocketMQ 集群搭建--双Master方案

安装环境 jdk1.7 alibaba-rocketmq-3.2.6.tar.gz VM虚拟机redhat6.5-x64:192.168.1.201  192.168.1.202 Xshell4 部署方案 序号 IP 角色 模式 1 192.168.1.201 nameServer1,brokerServer1 Master1 2 192.168.1.202 nameServer2,brokerServer2 Master2 安装步骤:[两台机器同样操作  以201为例] 步骤一:解压安装文件a

RocketMQ集群部署安装

RcoketMQ:[ 1.低延时:在高压下,1毫秒内超过99.6%的反应延迟. 2.面向金融:具有跟踪和审计功能的高可用性. 3.行业可持续发展:保证了万亿级的消息容量. 4.厂商中立:一个新的开放的分布式消息和流媒体标准自最新的4.1版本. 5.BigData友好:批量转移与多功能集成的洪水吞吐量. 6.大量的积累:只要有足够的磁盘空间,就可以累积消息而不会造成性能损失. ] -----------------------------------------------------------

Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列之部署master/node节点组件(四)

0.前言 整体架构目录:ASP.NET Core分布式项目实战-目录 k8s架构目录:Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列目录 1.部署master组件 master 服务器的组件有:kube-apiserver.kube-controller-manager.kube-scheduler 因此需要下载k8s master,下载地址:https://github.com/kubernetes/kubernetes/blob/master/CHANGE

《二》Kubernetes集群部署(master)-搭建单集群v1.0

搭建单集群平台的环境规划 多master环境规划 官方提供的三种部署方式 minikubeMinikube是一个工具,可以在本地快速运行一个单点的Kubernetes,仅用于尝试Kubernetes或日常开发的用户使用.部署地址:https://kubernetes.io/docs/setup/minikube/ kubeadmKubeadm也是一个工具,提供kubeadm init和kubeadm join,用于快速部署Kubernetes集群.部署地址:https://kubernetes.

ActionMQ集群部署

ActiveMQ集群部署 一.应用场景 消息中间件是分布式系统中重要的组件,主要解决应用耦合,异步消息,流量削锋等问题.实现高性能,高可用,可伸缩和最终一致性架构.是大型分布式系统不可缺少的中间件.目前在生产环境,使用较多的消息队列有ActiveMQ,RabbitMQ,ZeroMQ,Kafka,MetaMQ,RocketMQ等.以下介绍消息队列在实际应用中常用的使用场景.异步处理,应用解耦,流量削锋和消息通讯四个场景. 1.1. 异步处理 场景说明:用户注册后,需要发注册邮件和注册短信.传统的做

双RocketMq集群的搭建

一.双Master RocketMq集群的搭建 1.服务器环境: 序号 IP 用户名 角色 模式 1 192.168.211.128 root nameServer1,brokerServer1 Master1 2 192.168.211.129 root nameServer2,brokerServer2 Master1 2.添加hosts信息 vim /etc/hosts IP NAME 192.168.211.128 rocketmq-nameserver1 192.168.211.128

solr 集群(SolrCloud 分布式集群部署步骤)

SolrCloud 分布式集群部署步骤 安装软件包准备 apache-tomcat-7.0.54 jdk1.7 solr-4.8.1 zookeeper-3.4.5 注:以上软件都是基于 Linux 环境的 64位 软件,以上软件请到各自的官网下载. 服务器准备 为搭建这个集群,准备三台服务器,分别为 192.168.0.2 -- master 角色192.168.0.3 -- slave 角色192.168.0.4 -- slave 角色 搭建基础环境 安装 jdk1.7 - 这个大家都会安装

(转)redis 3.0的集群部署

一:关于redis cluster 1:redis cluster的现状 reids-cluster计划在redis3.0中推出,可以看作者antirez的声明:http://antirez.com/news/49 (ps:跳票了好久,今年貌似加快速度了),目前的最新版本是redis3 beta2(2.9.51). 作者的目标:Redis Cluster will support up to ~1000 nodes. 赞... 目前redis支持的cluster特性(已亲测): 1):节点自动发