架构设计:系统间通信(40)——自己动手设计ESB(1)

1、概述

在我开始构思这几篇关于“自己动手设计ESB中间件”的文章时,曾有好几次动过放弃的念头。原因倒不是因为对冗长的文章产生了惰性,而是ESB中所涉及到的技术知识和需要突破的设计难点实在是比较多,再冗长的几篇博文甚至无法对它们全部进行概述,另外如果在思路上稍微有一点差池就会误导读者。一个可以稳定使用的ESB中间件凝聚了一个团队很多参与者的心血,一个人肯定是无法完成这些工作的。但是笔者思索再三,还是下决心将这这即便文章完成,因为这是对本专题从第19篇文章到第39篇文章中所介绍的知识点的最好的总结。我们自己动手设计ESB中间件,不是为了让它商用,也不是为了让它可以比拟市面上某款ESB中间件,甚至不是为了把ESB中的技术难点的解决全部方案化。我们的目的是检验整个专题中所介绍的知识点是否能在读者自己消化后进行综合应用,是否能做到技术知识的活学活用、按需选型

2、ESB的顶层设计

(顶层设计图)

上图是我们要进行实现的ESB中间件的顶层设计。从上图中可以看到,整个ESB中间件分为以下几个模块:Client客户端、流程编排/注册工具、主控服务模块、服务状态协调组(模块)、服务运行组(模块)。首先我们大致描述一下这些模块的工作内容:

  • Client客户端是需要接入ESB中间件的各个业务服务系统。例如物流系统、联账系统、CRM系统等等。在这些客户端系统接入ESB中间件时,将集成ESB中间件提供给他们的各种开发语言版本的ESB-Client组件。如果使用的是C#语言则ESB-Client组件可能以DLL文件的方式提供;如果使用的是JAVA语言则ESB-Client组件可能以Jar文件的方式提供;如果使用的是NODEJS则可能是一个(或多个)JS文件……
  • 这些客户端系统的开发人员将可以使用ESB中间件提供的一个独立的流程编排/注册工具,后者在很多ESB中间件系统中一般被命名为“…… Studio”,并且这些流程编排/注册工具一般以各种IDE插件的形式提供出来,例如制作成Eclipse-Plugin提供给开发人员。这些工具的主要作用就是让客户端系统的开发人员(开发团队)具备向ESB主控服务进行原子服务注册的能力,另外还可以让开发人员查询到目前服务端所有可用的其它原子服务(来自于其它业务系统的),以便在流程编排/注册工具上完成新的服务流程编排和已有服务流程新版本的发布。这就是上图中标注为“1”的步骤。
  • 另外ESB中间件为了保证流程编排所使用的原子服务不会因为提供这个原子服务的业务系统的变化而产生影响,一般来说在进行业务系统注册原子服务时都会指定这个原子服务的版本和调用权限。调用权限一般又分为黑名单权限和白名单权限。以白名单权限来说,只有白名单中所列列举的业务系统有权限调用这个原子服务。即使这个原子服务参与了某个ESB中的流程编排,如果请求这个编排好的流程的业务系统不在这个白名单中,调用也会失败。
  • 主控服务为流程编排/发布工具提供新的原子服务注册请求、新的流程发布请求、已有流程的新版本发布请求。最新的原子服务、流程编排等数据将会被主控服务存储在持久化容器中(例如关系型数据库),并且向“服务状态协调模块”发送最新的数据变化。注意,主控服务并不负责执行编排好的流程,只是用于记录数据编排的变化和向“数据协调模块”发送这些数据变化,这就是上图中所标示的步骤2。主控服务还有另外两个作用:负责权限管理和服务运行模块的状态监控。
  • 由于负责最终对流程编排进行执行的“服务运行模块”存在很多节点(下文称为ESB-Broker Server节点),且这些ESB-Broker Server节点的数量在服务过程中会不断变化(新增或减少),所以“主控服务”并不知道有哪些Boker在运行。为了通知这些在运行状态的Broker有新的服务编排被发布(或者其它事件信息),这些处于运行状态的ESB-Broker Server节点都会连接到“服务状态协调模块”,并且由后者完成数据变化的事件通知。这就是“服务状态协调模块”的主要功能,也是上图中所示的步骤3。在我们自己设计的ESB中间件中,“服务状态协调模块”由一组zookeeper服务构成(在我另外几篇博文中专门介绍zookeeper,这个专题就不对zookeeper的基本操作进行讲解了),如果您在实际的工作中有其它功能/技术需求,也可以自己设计“服务状态协调模块”。
  • 在业务系统集成过程中,ESB中间件所扮演的角色就是在各个业务系统间进行原子服务调用、转换数据、再进行原则服务调用、再转换…….最后向执行服务编排的请求者返回结果。所以ESB中间件服务往往有较高的性能要求。如果执行ESB服务编排的节点只有一个,往往就达不到ESB中间件的设计要求甚至会使ESB中间件服务成为整个软件架构的性能瓶颈点。所以在我们设计的ESB中间件中,真正执行ESB服务的节点会有多个这种ESB-Broker Server节点。
  • 在ESB运行服务的过程中使用多个Broker Server有很多好处,首先来说它们可以保证在整个系统出现请求洪峰的情况下,能够把这些请求压力平均分配到这些Broker Server节点上,最终使ESB服务不会成为整个顶层设计的瓶颈。请求压力的分配工作会由zookeeper集群完成。另外,多个Broker Server可以保证某一个(或者几个)Broker Server节点在出现异常并退出服务后,整个ESB中间件的服务不会停止——这是一个现成的容错方案。开发人员可以通过退避算法来决定ESB-Client下一次试图访问出现错误的Broker Server节点的时间,也可以立即为ESB-client重新分配一个健康的Broker Server节点。最后,这个解决方案可以在ESB服务运行的过程中保证实现Broker Server的动态横向扩展:当ESB主控服务模块发现整个Broker Server服务组的性能达到(或快要达到)峰值时,运维人员可以马上开启新的Broker Server节点,zookeeper集群会负责将定制的编排、定制的Processor处理器等数据信息动态加载到新的Broker Server节点中,并让后者立即加入整个服务组开始工作。
  • 在ESB-Client(某个业务系统)请求执行某个服务编排时,首先会使用这个ESB-Client(某个业务系统)已经集成的zookeeper客户端请求ESB的zookeeper集群服务,从中取得当前正在运行的Broker Server节点信息,并通过某种算法决定自己访问哪一个Broker Server节点(算法很多:轮询算法、加权算法、一致性Hash算法等等),如“顶层设计图”中步骤4、步骤5所示。为了保证上文中提到的新的Broker Server节点能够加入服务组并为ClientESB-Client服务,步骤4和步骤5的过程可以周期性进行,并视情况重新为ESB-Client分配Broker Server节点。
  • 当ESB-Client确定目标Broker Server节点后,将正式向这个Broker Server发起执行某个服务编排的请求。当同一个ESB-Client第二次请求执行服务编排时,就可以在一定时间周期内(有效时间内)不再走步骤4、5了,而可以直接发起请求到同一个目标Broker Server节点。直到这个Broker Server不再能够响应这些请求为止(或者有其它依据确定这个Broker Server节点已经不能提供服务),ESB-Client会再执行步骤4、5,以便确定另一个新的、正常工作的Broker Server节点。在下文笔者也会重点介绍如何进行Broker Server节点的选择。

3、主控服务的日志收集

上一节已经说到,在我们设计的ESB中间件中包括两个模块:主控服务模块和服务运行组(模块)。其中主控服务模块的其中一个作用,是对若干当前处于运行状态的服务运行组节点(Broker Server)进行性能状态监控。性能状态监控的目的是确保运维人员实时了解这些Broker Server的运行状态,并且能在整个服务运行组快要达到性能瓶颈时能够启动新的Broker Server分担压力或者在整个服务运行组没有什么请求负担时,停止一些Broker Server。

那么主控节点如何知道整个Broker Server组中多个服务节点的性能状态呢?要知道,Broker Server节点是可以动态扩展的。上文也已经说到:主控节点并不知道当前有哪些Broker Server节点处于运行状态。那么基于Kafka消息队列的日志收集就是一个解决方案,设计人员还可以使用Flume + Storm的解决方案进行日志自动收集和即时分析。下面我们对这两种日志收集方案进行介绍。注意,关于Kafka、Flume在这个专题之前的文章中已经做了详细介绍,所以本小节中涉及Kafka、Flume技术的部分就不再对设计方案的实施进行介绍了。

3-1、使用Kafka收集性能数据

Kafka Server的特点就是快,虽然在特定的情况下Kafka Server会出现消息丢失或重复发送的问题,但是这个问题针对日志数据收集场景来说不算大问题。使用消息队列收集各Broker Server节点的性能日志也是和ESB中各模块的依赖特性相适应的:由于在我们设计的ESB中间件中,主控服务模块并不知道有多少Broker Server节点处于运行状态,也不知道这些Broker Server节点的IP位置。也就是说主控服务模块无法主动去这些Broker Server节点上收集性能数据。最好的办法就是由这些活动的Broker Server节点主动发送日志数据。

3-1-1、设计思路

下图是使用Kafka组件收集Broker Server节点上性能数据并进行性能数据处理、结果存储的设计示例图:

上图中,每一个Broker Server节点上除了启动一个Camel Context实例以外(后文进行详细说明),还需要配置一个Kafka的Producer端用于发送数据。Kafka-Producer端收集的性能数据可能包括:CPU使用情况、内存使用情况、本地I/O速度、操作系统线程情况、Camel Context中的路由实例状态、Endpoint在Cache中的命中情况、客户端对Broker Server中以编排路由的调用情况等等——业务数据和非业务数据都可以通过这种方式进行监控,并且以业务数据为主。

Kafka Servers中部署了三个Kafka Broker Server节点(建议的值),用于接收若干ESB Broker Server节点上各个Kafka-Producer发送来的性能日志数据。为了保证整个Kafka集群的性能,每一个Kafka Broker Server都有至少两个分区(partition,还是建议值)。这里多说一句,为了节约服务资源您可以将Kafka Broker Server和Kafka-Consumer放在一台服务节点上,甚至可以将它们和主控服务节点放在一起。

Kafka-Consumer负责进行性能日志数据的处理。有的读者可能就要问了,既然Consumer接收到的都是可以独立存储性能日志数据,那么只需要将这些日志找到一个合适的存储方案(例如HBase)存放起来就可以了,还需要Consumer做什么处理呢?这是因为开发团队完成的Producer采样频率可能和运维团队要求的监控采用频率不一样。

为了保证性能监控数据的精准性,开发团队利用基于Kafka集群提供的吞吐量优势,可以在各个ESB Broker Server节点所集成的Kafka-Producer上设置一个较高的采样率(当然还是要顾忌节点本身的资源消耗),例如每秒对固定的业务指标和非业务指标完成10次采样。但是运维团队通过主控服务监控各个ESB Broker Server节点是,往往不需要这么高的采样率(这里可以提供一个设置选项供运维团队随时进行调整),大概也就是每秒更新1次的样子就差不多了。

那么Consumer如何处理每秒钟多出来的9次采样数据呢?可以明确想到的有两种处理方式:一种处理方式是无论主控服务的监控台上的性能指标以何种频率进行显示,Consumer都将收到的数据写出存储系统中;另一种处理方式是Consumer将收到的多余数据丢弃,只按照运维团队设置的采样频率将数据写入持久化存储系统。在第二中处理方式中有一个情况需要特别注意:如果将要被丢弃的性能数据达到了性能阀值(例如本次采集的内存使用率超多了2GB),则这条日志数据还是需要进行保留。第一种处理基本上没有什么需要介绍的,优点和缺点也是很明确的:优点是可以在后期进行完整的性能历史回溯,缺点就是会占用较大的存储空间——虽然目前可以使用的超大存储方案有很多而且都很成熟稳定,但它们都需要比较强大的资金预算支持。

3-1-2、Consumer的实现

这里笔者主要讨论一下Consumer的第二种处理方式:丢弃多余的数据。我们可以使用之前文章介绍过的ConcurrentLinkedHashMap作为Consumer中存储性能消息日志的Cache,Cache的固定大小设置为200(或者其它一个较大的值)。这个Cache结构可以帮助我们完成很多工作:首先它可靠的性能能够保证过个Consumer不会成为整个性能日志收集方案的瓶颈——虽然ConcurrentLinkedHashMap的性能并不是最快的;其次这个Cache结构能够帮助我们自动完成多余性能日志的清除工作,因为在第201条日志记录被推入Cache时,在LRU队列尾部的最初一条记录将自动被排除队列,最终被垃圾回收策略回收掉;最后,Consumer按照运维团队设置的采样周期,对Cache中的性能日志数据进行持久化保存时,始终只需要取出当前在Cache将被剔除的那条记录,这样就省掉了编写程序,在两个周期的时间差之间判断“要对哪条性能日志数据”进行持久化保存的定位工作。

顺便说一句,如果您需要在工程中使用Google提供的ConcurrentLinkedHashMap数据结构工具,那么您需要首先在pom文件中添加相应的组件依赖信息:

<dependency>
    <groupId>com.googlecode.concurrentlinkedhashmap</groupId>
    <artifactId>concurrentlinkedhashmap-lru</artifactId>
    <version>1.4.2</version>
</dependency>

以下是Consumer中用于处理LRU队列添加、LRU周期性读取、LRU删除事件的代码片段:

......
/**
 * 这就是性能数据的LRU队列
 */
private static final ConcurrentLinkedHashMap<Long, String> PERFORMANCE_CACHE =
        new ConcurrentLinkedHashMap.Builder<Long, String>()
        .initialCapacity(200)
        .maximumWeightedCapacity(200)
        .listener(new EvictionListenerImpl())
        .build();
......

/**
 * 这个监听器用于在数据被从LRU队列剔除时<br>
 * 按照功能需求检查这条记录是否需要被持久化存储起来。
 * @author yinwenjie
 */
public static class EvictionListenerImpl implements EvictionListener<Long, String> {

    // 上一次进行数据采集的时间,初始为-1
    private Long lastTime = -1l;

    // 这是由运维团队设置的数据采集周期,1000表示1000毫秒
    // 正式系统中,这个值将有外部读取
    private Long period = 1000l;

    @Override
    public void onEviction(Long key, String jsonValue) {
        /*
         * 以下条件任意成立时,就需要对这条数据进行采集了:
         * 1、lastTime为-1的情况(说明是程序第一次采集)
         *
         * 2、当前事件 - lastTime >= period(采集周期)
         *
         * 3、当监控数据大于设置的警告阀值,在这个示例代码中
         * 这个警告阀值为80,正式系统中,这个阀值应从外部读取
         * 以下的threshold变量就代表这个值
         * */
        Long threshold = 80L;
        Long nowtime = new Date().getTime();
        // 获取性能数据中的CPU使用率
        // 注意,正式系统 中最好不要传递json结构,文本结构的数据就好了
        JSONObject jsonData = JSONObject.fromObject(jsonValue);
        Long cpuRate = jsonData.getLong("cpu");
        boolean mustCollecting = false;
        if(this.lastTime == -1 ||
            nowtime - lastTime >= this.period ||
            cpuRate >= threshold) {
            mustCollecting = true;
            this.lastTime = nowtime;
        }
        // 如果不需要做数据的持久化存储,就终止本次监听的操作即可
        if(!mustCollecting) {
            return;
        }

        // ********************
        // 这里可以做持久化数据存储的操作了
        // ********************
        LRUConsumer.LOGGER.info(key + ":" + jsonValue + " 完成数据持久存储操作=======");
    }
}

......

// 以下代码就是当Kafka-Consumer收到性能日志数据的操作
// 将这个数据存放到PERFORMANCE_CACHE即可
Long key = new Date().getTime();
// 可使用时间的毫秒数作为key值(正式应用场景下,考虑多个consumer节点,Key的确定会有一个更规范的规则)
LRUConsumer.PERFORMANCE_CACHE.put(key, performanceData);
......

以上代码中,我们使用之前已经介绍过的LRU数据结构在Consumer端保存发送过来的数据。如果读者对LRU还不清楚可以查看我另外的一篇文章中的介绍(《架构设计:系统间通信(39)——Apache Camel快速入门(下2)》)。由Google提供的ConcurrentLinkedHashMap结构就可以向我们提供一个现成的LRU队列,这样一来当LRU队列存储满后,最先被接收到的性能日志数据就会从队列尾部被删除。最关键的处理工作都将在EvictionListener接口的实现类中完成,在实际应用中开发人员还可以在确定一条性能日志需要被持久化存储之后专门启动一个线程进行操作,例如使用一个专门的线程池(ThreadPoolExecutor)。这样一来LRU队列就真正不受持久化存储操作延迟时间的影响了。

3-2、使用Flume + Storm收集性能数据

以上使用Kafka收集Broker Server节点的性能数据的方案中,需要在每个编写的Broker Server节点上增加额外的代码向Kafka Broker Server发送数据。实际上这种功能需求情况使用Apache Flume收集数据会使技术方案更容易实现和维护,下面我们就大致介绍一下这个技术方案实现。由于在之前的文章中笔者已经较详细的介绍了如何使用Apache Flume进行基本配置了,所以这里我们重点讨论两个问题Apache Flume的数据来源和Storm Server在接收到Flume Server发送来的数据后如何进行处理。

3-2-1、设计思路

上图展示了整个功能需求的设计结构。安装在ESB Broker Server节点的Flume程序负责收集这个节点上的各种功能性指标和非功能性指标。然后将这些性能日志数据按照负载均衡模式传递到若干中继Flume Server节点上,后者专门用于承载/汇总多个ESB Broker Server节点传来的性能日志数据,并且最终将数据写入Storm Server。

首先请注意安装在ESB Broker Server节点的Flume程序,在3-1小节中采集节点功能性指标和非功能性指标都是依靠开发人员编写程序完成,并发送给Kafka-Broker。但这样做却真的绕了很大一个弯路,因为Linux操作系统上已经提供了很多采集节点非功能性指标的方式(例如采集I/O信息、内存使用信息、内存分页信息、CPU使用信息、网络流量信息等),开发人员只需要一些脚本就可以完成采集工作。例如,我们采集CPU信息完全不需要我们在ESB-Broker Server中编写程序(采集CPU信息也不应该是ESB-Broker Server的一项工作任务),而采用如下的脚本即可:

top -d 0.1 | grep Cpu >> cpu.rel

#写法还有很多,还可以从/proc/stat文件中获取CPU状态

以上脚本可以按照100毫秒为周期,获取CPU的信息。并将这条信息作为一条新的记录存储到cpu.rel文件中。这样Apache Flume就可以读取cpu.rel文件中的变化,作为性能日志数据的来源:

#flume 配置文件中的片段
......
agent.sources.s1.type = exec
agent.sources.s1.channels = c1
agent.sources.s1.command = tail -f -n 0 /root/cpu.rel
......

在ESB-Broker Server节点中,我们可以使用这样的方式从不同文件中读取各种不同的日志信息,如下图所示:

=================================

(接下文)

时间: 2024-08-02 02:48:29

架构设计:系统间通信(40)——自己动手设计ESB(1)的相关文章

架构设计:系统间通信(43)——自己动手设计ESB(4)

============================== 接上文<架构设计:系统间通信(42)--自己动手设计ESB(3)> 5.Borker Server选择 在本文之前的三篇文章中,我们介绍了自行设计的ESB中间件的顶层设计.介绍了主控服务如何对多个ESB-Brokers动态节点进行日志采集和监控.还介绍了ESB-Broker节点如何进行动态路由定义的加载管理.这篇文章我们主要讨论关于ESB-Client的一些关键设计. 在我们自行设计的ESB中间件中为了保证ESB服务不会成为整个软件

架构设计:系统间通信(44)——自己动手设计ESB(5)

(接上文<架构设计:系统间通信(43)--自己动手设计ESB(4)>) 5-4.ESB-Client端的ActiveBrokerContext 本小节开始,我们将按照前文介绍的ESB-Client的核心步骤,一点一点的给出ESB-Client端和ESB-Broker进行交互的核心代码.为了方便在ESB-Client端进行ESB-Broker的交互,我们设计了一个ActiveBrokerContext类.读者可以将这个类理解为"ESB-Broker交互上下文",在ESB-Cl

架构设计:系统间通信(32)——其他消息中间件及场景应用(下2)

(接上文<架构设计:系统间通信(31)--其他消息中间件及场景应用(下1)>) 5-3.解决方案二:改进半侵入式方案 5-3-1.解决方法一的问题所在 方案一并不是最好的半侵入式方案,却容易理解架构师的设计意图:至少做到业务级隔离.方案一最大的优点在于日志采集逻辑和业务处理逻辑彼此隔离,当业务逻辑发生变化的时候,并不会影响日志采集逻辑. 但是我们能为方案一列举的问题却可以远远多于方案一的优点: 需要为不同开发语言分别提供客户端API包.上文中我们介绍的示例使用JAVA语言,于是 事件/日志采集

架构设计:系统间通信(33)——其他消息中间件及场景应用(下3)

=================================== (接上文:<架构设计:系统间通信(32)--其他消息中间件及场景应用(下2)>) 5-7.解决方案三:非侵入式方案 以上两种方案中为了让业务系统能够集成日志采集功能,我们或多或少需要在业务系统端编写一些代码.虽然通过一些代码结构的设计,可以减少甚至完全隔离这些代码和业务代码的耦合度,但是毕竟需要业务开发团队花费精力对这些代码进行维护,业务系统部署时业务对这些代码的配置信息做相应的调整. 这里我们再为读者介绍一种非侵入式的日

架构设计:系统间通信(22)——提高ActiveMQ工作性能(上)

接上文<架构设计:系统间通信(21)--ActiveMQ的安装与使用> 3.ActiveMQ性能优化思路 上篇文章中的两节内容,主要介绍消息中间件ActiveMQ的安装和基本使用.从上篇文章给出的安装配置和示例代码来看,我们既没有修改ActivieMQ服务节点的任何配置,也没有采用任何的集群方案.这种情况只适合各位读者熟悉ActiveMQ的工作原理和基本操作,但是如果要将ActivieMQ应用在生产环境下,上文中介绍的运行方式远远没有挖掘出它的潜在性能. 根据这个系列文章所陈述的中心思想,系统

架构设计:系统间通信(20)——MQ:消息协议(下)

(接上文<架构设计:系统间通信(19)--MQ:消息协议(上)>) 上篇文章中我们重点讨论了"协议"的重要性,并为各位读者介绍了Stomp协议和XMPP协议.这两种协议是消息队列中两种不同使用场景下的典型代表.本文主要接续上文的篇幅,继续讨论消息队列中另一种典型协议:AMQP协议. 3-3.AMQP协议 AMQP协议的全称是:Advanced Message Queuing Protocol(高级消息队列协议).目前AMQP协议的版本为 Version 1.0,这个协议标准

架构设计:系统间通信(15)——服务治理与Dubbo 上篇

1.上篇中"自定义服务治理框架"的问题 在之前的文章中(<架构设计:系统间通信(13)--RPC实例Apache Thrift 下篇(1)>.<架构设计:系统间通信(14)--RPC实例Apache Thrift 下篇(2)>),我们基于服务治理的基本原理,自己实现了一个基于zookeeper + thrift的服务治理框架.但实际上前文中我们自行设计的服务治理框架除了演示基本原理外,并没有多大的实际使用价值,因为还有很多硬性需求是没有实现的: 访问权限:在整个

架构设计:系统间通信(10)——RPC的基本概念

1.概述 经过了详细的信息格式.网络IO模型的讲解,并且通过JAVA RMI的讲解进行了预热.从这篇文章开始我们将进入这个系列博文的另一个重点知识体系的讲解:RPC.在后续的几篇文章中,我们首先讲解RPC的基本概念,一个具体的RPC实现会有哪些基本要素构成,然后我们详细介绍一款典型的RPC框架:Apache Thrift.接下来我们聊聊服务治理和DUBBO服务框架.最后总结一下如何在实际工作中选择合适的RPC框架. 2.RPC概述 2-1.什么是RPC RPC(Remote Procedure

架构设计:系统间通信(36)——Apache Camel快速入门(上)

1.本专题主旨 1-1.关于技术组件 在这个专题中,我们介绍了相当数量技术组件:Flume.Kafka.ActiveMQ.Rabbitmq.Zookeeper.Thrift .Netty.DUBBO等等,还包括本文要进行介绍的Apache Camel.有的技术组件讲得比较深入,有的技术组件则是点到为止.于是一些读者朋友发来信息向我提到,这个专题的文章感觉就像一个技术名词的大杂烩,并不清楚作者的想要通过这个专题表达什么思想. 提出这个质疑的朋友不在少数,所以我觉得有必要进行一个统一的说明.这个专题