ZeroMQ(java)之负载均衡

我们在实际的应用中最常遇到的场景如下:

A向B发送请求,B向A返回结果。。。。

但是这种场景就会很容易变成这个样子:

很多A向B发送请求,所以B要不断的处理这些请求,所以就会很容易想到对B进行扩展,由多个B来处理这些请求,那么这里就出现了另外一个问题:

B对请求处理的速度可能不同,那么B之间他们的负载也是不同的,那么应该如何对请求进行分发就成了一个比较重要的问题。。。也就变成了负载均衡的问题了。。。

其实最好的负载均衡解决方案也很简单:

绝大多数的任务都是独立的,这里中间层可以将A发送过来的请求先缓存起来,然后B的行为就是主动的找中间层获取请求处理,然后返回,再获取。。。。也就是中间层只是做一个请求的缓存。。。由B自己来掌控合适来处理请求,也就是当B已经处理完了任务之后,自己去主动获取。。。而不是由中间层自己去主动分发。。。。

嗯,那么在ZeroMQ中应该如何实现这种模式呢,恩其实还挺简单的,如下图:

这里由两个Router来作为中间层,具体的数据流程如下:

(1)中间层启动,Worker连接Backend,向其发送Request请求(ready),这个时候中间层就能够知道哪一个worker现在是空闲的,将其保存起来(放到worker队列),可以处理请求

worker的执行流程就是send(发送ready)--->recv(获取请求),

(2)Client端向Fronted发送请求,中间层将请求缓存到一个任务队列

(3)中间层从任务队里里面取出一个任务,将其发送给worker队列中的一个worker,并将其从woker队列中移除

(4)worker处理完以后,发送执行结果,也就是send,中间层收到woker的数据 之后,将其发送给相应的client,然后在讲这个worker放到worker队列中,表示当前这个worker可用。。。。

好了,前面就基本上介绍了整个结构用ZeroMQ应该是怎么实现的,那么接下来就直接来上代码吧:

[java] 
view plain
copy

  1. package balance;
  2. import java.util.LinkedList;
  3. import org.zeromq.ZFrame;
  4. import org.zeromq.ZMQ;
  5. import org.zeromq.ZMsg;
  6. public class Balance {
  7. public static class Client {
  8. public void start() {
  9. new Thread(new Runnable(){
  10. public void run() {
  11. // TODO Auto-generated method stub
  12. ZMQ.Context context = ZMQ.context(1);
  13. ZMQ.Socket socket = context.socket(ZMQ.REQ);
  14. socket.connect("ipc://front");  //连接router,想起发送请求
  15. for (int i = 0; i < 1000; i++) {
  16. socket.send("hello".getBytes(), 0);  //发送hello请求
  17. String bb = new String(socket.recv());  //获取返回的数据
  18. System.out.println(bb);
  19. }
  20. socket.close();
  21. context.term();
  22. }
  23. }).start();
  24. }
  25. }
  26. public static class Worker {
  27. public void start() {
  28. new Thread(new Runnable(){
  29. public void run() {
  30. // TODO Auto-generated method stub
  31. ZMQ.Context context = ZMQ.context(1);
  32. ZMQ.Socket socket = context.socket(ZMQ.REQ);
  33. socket.connect("ipc://back");  //连接,用于获取要处理的请求,并发送回去处理结果
  34. socket.send("ready".getBytes());  //发送ready,表示当前可用
  35. while (!Thread.currentThread().isInterrupted()) {
  36. ZMsg msg = ZMsg.recvMsg(socket);  //获取需要处理的请求,其实这里msg最外面的标志frame是router对分配给client的标志frame
  37. ZFrame request = msg.removeLast();   //最后一个frame其实保存的就是实际的请求数据,这里将其移除,待会用新的frame代替
  38. ZFrame frame = new ZFrame("hello fjs".getBytes());
  39. msg.addLast(frame);  //将刚刚创建的frame放到msg的最后,worker将会收到
  40. msg.send(socket);  //将数据发送回去
  41. }
  42. socket.close();
  43. context.term();
  44. }
  45. }).start();
  46. }
  47. }
  48. public static class Middle {
  49. private LinkedList<ZFrame> workers;
  50. private LinkedList<ZMsg> requests;
  51. private ZMQ.Context context;
  52. private ZMQ.Poller poller;
  53. public Middle() {
  54. this.workers = new LinkedList<ZFrame>();
  55. this.requests = new LinkedList<ZMsg>();
  56. this.context = ZMQ.context(1);
  57. this.poller = new ZMQ.Poller(2);
  58. }
  59. public void start() {
  60. ZMQ.Socket fronted = this.context.socket(ZMQ.ROUTER);  //创建一个router,用于接收client发送过来的请求,以及向client发送处理结果
  61. ZMQ.Socket backend = this.context.socket(ZMQ.ROUTER);  //创建一个router,用于向后面的worker发送数据,然后接收处理的结果
  62. fronted.bind("ipc://front");  //监听,等待client的连接
  63. backend.bind("ipc://back");  //监听,等待worker连接
  64. //创建pollItem
  65. ZMQ.PollItem fitem = new ZMQ.PollItem(fronted, ZMQ.Poller.POLLIN);
  66. ZMQ.PollItem bitem = new ZMQ.PollItem(backend, ZMQ.Poller.POLLIN);
  67. this.poller.register(fitem);  //注册pollItem
  68. this.poller.register(bitem);
  69. while (!Thread.currentThread().isInterrupted()) {
  70. this.poller.poll();
  71. if (fitem.isReadable()) {  //表示前面有请求发过来了
  72. ZMsg msg = ZMsg.recvMsg(fitem.getSocket());  //获取client发送过来的请求,这里router会在实际请求上面套一个连接的标志frame
  73. this.requests.addLast(msg);   //将其挂到请求队列
  74. }
  75. if (bitem.isReadable()) {  //这里表示worker发送数据过来了
  76. ZMsg msg = ZMsg.recvMsg(bitem.getSocket());  //获取msg,这里也会在实际发送的数据前面包装一个连接的标志frame
  77. //这里需要注意,这里返回的是最外面的那个frame,另外它还会将后面的接着的空的标志frame都去掉
  78. ZFrame workerID = msg.unwrap();  //把外面那层包装取下来,也就是router对连接的标志frame
  79. this.workers.addLast(workerID);  //将当前的worker的标志frame放到worker队列里面,表示这个worker可以用了
  80. ZFrame readyOrAddress = msg.getFirst(); //这里获取标志frame后面的数据,如果worker刚刚启动,那么应该是发送过来的ready,
  81. if (new String(readyOrAddress.getData()).equals("ready")) {  //表示是worker刚刚启动,发过来的ready
  82. msg.destroy();
  83. } else {
  84. msg.send(fronted);  //表示是worker处理完的返回结果,那么返回给客户端
  85. }
  86. }
  87. while (this.workers.size() > 0 && this.requests.size() > 0) {
  88. ZMsg request = this.requests.removeFirst();
  89. ZFrame worker = this.workers.removeFirst();
  90. request.wrap(worker);  //在request前面包装一层,把可以用的worker的标志frame包装上,这样router就会发给相应的worker的连接
  91. request.send(backend);  //将这个包装过的消息发送出去
  92. }
  93. }
  94. fronted.close();
  95. backend.close();
  96. this.context.term();
  97. }
  98. }
  99. public static void main(String args[]) {
  100. Worker worker = new Worker();
  101. worker.start();
  102. Client client = new Client();
  103. client.start();
  104. Middle middle = new Middle();
  105. middle.start();
  106. }
  107. }

其实根据前面已经提出来的实现原理来编写代码还是比较顺利的,中途也没有遇到什么问题。。。不过要理解这部分要比较了解ZeroMQ的数据格式才行

时间: 2024-11-05 18:48:15

ZeroMQ(java)之负载均衡的相关文章

【转】搭建nginx+tomcat+Java的负载均衡环境

一.简介: Tomcat在高并发环境下处理动态请求时性能很低,而在处理静态页面更加脆弱.虽然Tomcat的最新版本支持epoll,但是通过Nginx来处理静态页面要比通过Tomcat处理在性能方面好很多. 二.下载安装: 下载nginx http://nginx.org/en/download.html 下载解压后放到C:\nginx-1.0.4(官网这样要求的,不知道放其它盘有没有问题) 启动nginx.exe,然后在浏览器输入127.0.0.1即可 配置自己的项目测试 第二环节我们使用了默认

Java加权负载均衡策略

加权轮询 后端集群每台机器都分配一个权重,权重高得会承担更多的流量,相反权重低的分配的流量也会少,这种策略允许后端集群机器配置差异化 java实现 import java.util.ArrayList; import java.util.HashMap; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.Set; import org.springframework.s

15套java互联网架构师、高并发、集群、负载均衡、高可用、数据库设计、缓存、性能优化、大型分布式 项目实战视频教程

* { font-family: "Microsoft YaHei" !important } h1 { color: #FF0 } 15套java架构师.集群.高可用.高可扩 展.高性能.高并发.性能优化.Spring boot.Redis.ActiveMQ.Nginx.Mycat.Netty.Jvm大型分布 式项目实战视频教程 视频课程包含: 高级Java架构师包含:Spring boot.Spring  cloud.Dubbo.Redis.ActiveMQ.Nginx.Mycat

java架构师课程、性能调优、高并发、tomcat负载均衡、大型电商项目实战、高可用、高可扩展、数据库架构设计、Solr集群与应用、分布式实战、主从复制、高可用集群、大数据

15套Java架构师详情 * { font-family: "Microsoft YaHei" !important } h1 { background-color: #006; color: #FF0 } 15套java架构师.集群.高可用.高可扩展.高性能.高并发.性能优化.Spring boot.Redis.ActiveMQ.Nginx.Mycat.Netty.Jvm大型分布式项目实战视频教程 视频课程包含: 高级Java架构师包含:Spring boot.Spring  clo

java架构师负载均衡、高并发、nginx优化、tomcat集群、异步性能优化、Dubbo分布式、Redis持久化、ActiveMQ中间件、Netty互联网、spring大型分布式项目实战视频教程百度网盘

15套Java架构师详情 * { font-family: "Microsoft YaHei" !important } h1 { background-color: #006; color: #FF0 } 15套java架构师.集群.高可用.高可扩展.高性能.高并发.性能优化.Spring boot.Redis.ActiveMQ.Nginx.Mycat.Netty.Jvm大型分布式项目实战视频教程 视频课程包含: 高级Java架构师包含:Spring boot.Spring  clo

java架构师大型分布式综合项目实战,高并发,集群,高可用,程序设计,性能优化,架构设计,负载均衡,大数据量

* { font-family: "Microsoft YaHei" !important } h1 { color: #FF0 } 15套java架构师.集群.高可用.高可扩 展.高性能.高并发.性能优化.Spring boot.Redis.ActiveMQ.Nginx.Mycat.Netty.Jvm大型分布 式项目实战视频教程 视频课程包含: 高级Java架构师包含:Spring boot.Spring  cloud.Dubbo.Redis.ActiveMQ.Nginx.Mycat

几种简单的负载均衡算法及其Java代码实现

什么是负载均衡 负载均衡,英文名称为Load Balance,指由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无须其他服务器的辅助.通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求.负载均衡能够平均分配客户请求到服务器阵列,借此提供快速获取重要数据,解决大量并发访问服务问题,这种集群技术可以用最少的投资获得接近于大型主机的性能. 负载均衡分为软件负载均衡和硬件负载均衡,前者的代

Java + Tomcat + Memcached + Ecs 实现负载均衡~上

前言: 公司的产品上线了, 对于大并发量的客户访问和对手的攻击,真是苦不堪言,所以集群的部署重要,现在集群的部署一般有两种方式,第一种,看到大部分人的做法一般是Nginx+Memcached+Tomcat进行一系列的转发部署,但是说实话,我们自己去搞这个Nginx,转发的效果并不是那么的完美,如果Nginx的服务器down掉的话,那么我们的整个站点,基本上就废除了,所以我这边用的的买了阿里云的ecs,买了一个负载均衡,进行的站点转发功能,其中阿里云的安全骑士也挺好,可以帮我们检测到攻击,那两台不

【Java Web】apache+tomcat集群实现负载均衡

一步步按照流程实现Apache 负载均衡 + tomcat群集的步骤: 1.环境介绍 操作系统环境 :windows xp sp3 (一台机器上跑 2个或多个tomcat服务) Java环境:   jdk1.6.0_13 软件:apache_2.2.13-win32-x86-no_ssl.msi apache-tomcat-6.0.20.zip 2.jdk的安装 安装过程省略 环境变量的设置 3.正式开始安装: apache的安装: 下载apache软件包:apache_2.2.13-win32