rabbitmq在kubernetes中持久化集群部署

背景

Javashop电商系统的消息总线使用的事rabbitmq,在订单创建、静态页生成、索引生成等等业务中大量采用异步消息系统,这个对于mq高可用的要求有两个重要的考量:

1、集群化

2、可扩容

3、冗灾

冗灾就要实现rabbitmq的持久化,要考虑到rabbitmq宕机的情况,当rabbitmq因不可抗因素挂掉了,这时有一些消息还没来得及被消费,当我们再恢复了rabbitmq的运行后,这些消息应该同时被恢复,可以再次被消费。

本文着重讨论rabbitmq的k8s的持久化部署方案,当然提供在方案也支持了集群及扩容。

思路

1、数据的存储

在k8s中的持久化部署不可避免的要用到持久卷,我们采用nfs方式的持久卷来存储es数据。

持久卷的详细介绍请见这里:

https://kubernetes.io/docs/concepts/storage/persistent-volumes/

2、多节点的权限问题

rabbit的数据目录默认只允许一个节点访问,但在k8s上采用了持久卷,所有节点的数据都存储在这个卷上,这会导致rabbitmq的数据目录访问权限问题:

1     {{failed_to_cluster_with,
2                          [[email protected]],
3                          "Mnesia could not connect to any nodes."},
4                      {rabbit,start,[normal,[]]}}

我们通过指定节点名称的方式来解决,稍后可以在配置文件中看到具体的配置项。

部署过程

一、pv(持久卷的建立)

先要建立nfs服务器

对于持久卷的结构规划如下:

1 /nfs/data/mqdata

根据如上规划建立nfs服务:

 1 #master节点安装nfs
 2 yum -y install nfs-utils
 3 #创建nfs目录
 4 mkdir -p /nfs/data/{mqdata,esmaster,esdata}
 5 #修改权限
 6 chmod -R 777 /nfs/data/
 7
 8 #编辑export文件
 9 vim /etc/exports
10
11 粘贴如下内容:
12 /nfs/data/mqdata *(rw,no_root_squash,sync)
13
14 #配置生效
15 exportfs -r
16 #查看生效
17 exportfs
18
19 #启动rpcbind、nfs服务
20 systemctl restart rpcbind && systemctl enable rpcbind
21 systemctl restart nfs && systemctl enable nfs
22
23 #查看 RPC 服务的注册状况
24 rpcinfo -p localhost
25
26 #showmount测试,这里的ip输入master节点的局域网ip
27 showmount -e <your ip>

如果成功可以看到可被挂载的目录:

1 # showmount -e 172.17.14.73
2 Export list for 172.17.14.73:
3                                                                                                                                           /nfs/data/esmaster *
4 /nfs/data/mqdata   *

接下来,要在每一个节点上安装nfs服务以便使k8s可以挂载nfs目录

1 #所有node节点安装客户端
2 yum -y install nfs-utils
3 systemctl start nfs && systemctl enable nfs

这样就为k8s的持久卷做好了准备。

建立持久卷

有了nfs的准备,我就可以建立持久卷了:

我们分享了javashop内部使用的yaml仓库供大家参考:

https://gitee.com/enation/rabbitmq-on-kubernetes

在您的k8s maseter节点服务器上 clone我们准备好的yaml文件

https://gitee.com/enation/rabbitmq-on-kubernetes.git

修改根目录中的pv.yaml

修改其中的server配置为nfs服务器的IP:

1  nfs:
2     server: 192.168.1.100 #这里请写nfs服务器的ip

通过下面的命令建立持久卷:

1 kubectl create -f pv.yaml

通过以下命令查看持久卷是否建立成功:

1 kubectl get pv

部署rabbitmq

在k8s  master节点上执行下面的命令创建namespace:

1 kubectl create namespace ns-rabbitmq

执行下面的命令创建rabbitmq集群(执行整个目录的所有配置文件)

1 kubectl create -f rabbitmq/

通过以上部署我们建立了一个ns-rabbitmq的namespace,并在其中创建了相应的pvc、角色账号,有状态副本集以及服务。

镜像

使用的是javashop自己基于rabbitmq:3.8做的,加入了延迟消息插件,其他没有变化。

服务

我们默认开启了对外nodeport端口,对应关系:

31672->15672

30672->5672

k8s内部可以通过下面的服务名称访问:

rabbitmq.ns-rabbitmq:15672

rabbitmq.ns-rabbitmq:5672

等待容器都启动成功后验证。

验证

使用附带程序校验

  1. 发送消息(注释掉接收消息)
  2. 观察mq的队列中有消息堆积
  3. 删除mq的副本集
  4. 恢复mq副本集
  5. 接收消息

关键技术点

1、集群发现:

使用rabbitmq提供的k8s对等发现插件:rabbitmq_peer_discovery_k8s

2、映射持久卷

映射到:/var/lib/rabbitmq/mnesia

3、自定义数据目录

1           - name: RABBITMQ_MNESIA_BASE
2             value: /var/lib/rabbitmq/mnesia/$(MY_POD_NAME)

其中MY_POD_NAME是读取的容器名称,通过有状态副本集保证唯一性的绑定:

1           - name: MY_POD_NAMESPACE
2             valueFrom:
3               fieldRef:
4                 fieldPath: metadata.namespace

附带验证程序

 1 private static CachingConnectionFactory connectionFactory;
 2 private static void initConnectionFactory() {
 3     connectionFactory = new CachingConnectionFactory();
 4     connectionFactory.setHost("localhost");
 5     connectionFactory.setPort(5672);
 6     connectionFactory.setUsername("guest");
 7     connectionFactory.setPassword("guest");
 8 }
 9 public static void main(String[] args) {
10     initConnectionFactory();
11     //发送消息
12     send();
13     //接收消息
14     receive();
15 }
16 private static void  receive() {
17     AmqpTemplate template = new RabbitTemplate(connectionFactory);
18     String foo = (String) template.receiveAndConvert("myqueue");
19     System.out.println("get message : "+ foo);
20 }
21 private static void send() {
22      AmqpAdmin admin = new RabbitAdmin(connectionFactory);
23     admin.declareQueue(new Queue("myqueue",true));
24     AmqpTemplate template = new RabbitTemplate(connectionFactory);
25     template.convertAndSend("myqueue", "foo");
26 }

欢迎关注Javashop技术分享公众号,观看更多的视频讲解:

原文地址:https://www.cnblogs.com/javashop-docs/p/12345476.html

时间: 2024-10-07 22:36:09

rabbitmq在kubernetes中持久化集群部署的相关文章

elasticsearch在kubernetes中持久化集群部署

背景 Javashop电商系统的商品索引是使用的elasticsearch,对于高可用的要求有两个重要的考量: 1.集群化 2.可扩容 3.冗灾 冗灾就要实现es的持久化,要考虑到es宕机的情况,当es因不可抗因素挂掉了,当我们再恢复了es的运行后,商品索引也要随之 一起恢复. 本文着重讨论elasticsearch的持久化部署方案,当然提供在方案也支持了集群及扩容. 思路 1.数据的存储 在k8s中的持久化部署不可避免的要用到持久卷,我们采用nfs方式的持久卷来存储es数据. 持久卷的详细介绍

Kubernetes 1.6集群部署

IP Hostname Roles 172.50.0.120 kube-Harbor Harbor镜像仓库 172.50.0.110 kube-Master-01   172.50.0.111 kube-Master-02   172.50.0.112 kube-Master-03   172.50.0.116 kube-node01   172.50.0.117 kube-node02   172.50.0.118 kube-node03   172.50.0.119 kube-node04

Rabbitmq集群部署手册

一.Rabbitmq集群部署手册 1.环境介绍 系统环境:Red HatEnterprise Linux Server release 6.2 (Santiago) 内核版本:Linux zxt-02.com2.6.32-220.el6.x86_64 #1 SMP Wed Nov 9 08:03:13 EST 2011 x86_64 x86_64 x86_64GNU/Linux 软件版本:otp_src_17.3:rabbitmq-server-3.2.4:Python 2.6.6:simple

t持久化与集群部署开发详解

Quartz.net持久化与集群部署开发详解 序言 我前边有几篇文章有介绍过quartz的基本使用语法与类库.但是他的执行计划都是被写在本地的xml文件中.无法做集群部署,我让它看起来脆弱不堪,那是我的罪过. 但是quart.net是经过许多大项目的锤炼,走到啦今天,支持集群高可用的开发方案那是一定的,今天我就给小结下我的quartz.net开发升级过程. Quartz.net的数据库表结构 如果支持集群与持久化,单靠本机的内存和xml来保存计算任务调度的各种状态值,可想而知,是困难的.所以支持

Quartz.net持久化与集群部署开发详解

序言 我前边有几篇文章有介绍过quartz的基本使用语法与类库.但是他的执行计划都是被写在本地的xml文件中.无法做集群部署,我让它看起来脆弱不堪,那是我的罪过. 但是quart.net是经过许多大项目的锤炼,走到啦今天,支持集群高可用的开发方案那是一定的,今天我就给小结下我的quartz.net开发升级过程. Quartz.net的数据库表结构 如果支持集群与持久化,单靠本机的内存和xml来保存计算任务调度的各种状态值,可想而知,是困难的.所以支持数据库这样的解决方案,OpenSymphony

kubernetes集群部署

鉴于Docker如此火爆,Google推出kubernetes管理docker集群,不少人估计会进行尝试.kubernetes得到了很多大公司的支持,kubernetes集群部署工具也集成了gce,coreos,aws等iaas平台,部署起来也相当的方便.鉴于网上众多资料基于的是不少老版本,本篇文章针对最新的kubernetes及其依赖组件的部署简要阐述.通过本文可以比较粗暴的运行你的kubernetes集群,要优雅还需要更多的工作.部署主要分为三步: 1.准备机器并打通网络 如果要部署kube

【转】Quartz.net持久化与集群部署开发详解

转自:http://www.cnblogs.com/knowledgesea/p/5145239.html 序言 我前边有几篇文章有介绍过quartz的基本使用语法与类库.但是他的执行计划都是被写在本地的xml文件中.无法做集群部署,我让它看起来脆弱不堪,那是我的罪过. 但是quart.net是经过许多大项目的锤炼,走到啦今天,支持集群高可用的开发方案那是一定的,今天我就给小结下我的quartz.net开发升级过程. Quartz.net的数据库表结构 如果支持集群与持久化,单靠本机的内存和xm

Kubernetes集群部署DNS服务

Kubernetes集群部署DNS服务在kubernetes中每一个service都会被分配一个虚拟IP,每一个Service在正常情况下都会长时间不会改变,这个相对于pod的不定IP,对于集群中APP的使用相对是稳定的. 但是Service的信息注入到pod目前使用的是环境变量的方式,并且十分依赖于pod(rc)和service的创建顺序,这使得这个集群看起来又不那么完美,于是kubernetes以插件的方式引入了DNS系统,利用DNS对Service进行一个映射,这样我们在APP中直接使用域

Kubernetes集群部署篇( 一)

K8S集群部署有几种方式:kubeadm.minikube和二进制包.前两者属于自动部署,简化部署操作,我们这里强烈推荐初学者使用二进制包部署,因为自动部署屏蔽了很多细节,使得对各个模块感知很少,非常不利用学习.所以,这篇文章也是使用二进制包部署Kubernetes集群. 一.架构拓扑图 二.环境规划 角色 IP 主机名 组件 Master1 192.168.161.161 master1 etcd1,master1 master2 192.168.161.162 master2 etcd2,m