Thrift 个人实战--RPC服务的发布订阅实现(基于Zookeeper服务)

前言:
  Thrift作为Facebook开源的RPC框架, 通过IDL中间语言, 并借助代码生成引擎生成各种主流语言的rpc框架服务端/客户端代码. 不过Thrift的实现, 简单使用离实际生产环境还是有一定距离, 本系列将对Thrift作代码解读和框架扩充, 使得它更加贴近生产环境. 本文讲述如何借用zookeeper来实现中介角色, 使得服务端和客户端解耦, 并让RPC服务平台化发展.

基础架构:
  RPC服务往平台化的方向发展, 会屏蔽掉更多的服务细节(服务的IP地址集群, 集群的扩容和迁移), 只暴露服务接口. 这部分的演化, 使得server端和client端完全的解耦合. 两者的交互通过ConfigServer(MetaServer)的中介角色来搭线.
  
  注: 该图源自dubbo的官网
  这边借助Zookeeper来扮演该角色, server扮演发布者的角色, 而client扮演订阅者的角色.

Zookeeper基础:
  Zookeeper是分布式应用协作服务. 它实现了paxos的一致性算法, 在命名管理/配置推送/数据同步/主从切换方面扮演重要的角色.
  其数据组织类似文件系统的目录结构:
  
  每个节点被称为znode, 为znode节点依据其特性, 又可以分为如下类型:
  1). PERSISTENT: 永久节点
  2). EPHEMERAL: 临时节点, 会随session(client disconnect)的消失而消失
  3). PERSISTENT_SEQUENTIAL: 永久节点, 其节点的名字编号是单调递增的
  4). EPHEMERAL_SEQUENTIAL: 临时节点, 其节点的名字编号是单调递增的
  注: 临时节点不能成为父节点
  Watcher观察模式, client可以注册对节点的状态/内容变更的事件回调机制. 其Event事件的两类属性需要关注下:
  1). KeeperState: Disconnected,SyncConnected,Expired
  2). EventType: None,NodeCreated,NodeDeleted,NodeDataChanged,NodeChildrenChanged

RPC服务端:
  作为具体业务服务的RPC服务发布方, 对其自身的服务描述由以下元素构成.
  1). product: 产品名称
  2). service: 服务接口, 采用发布方的类全名来表示
  3). version: 版本号
  借鉴了Maven的GAV坐标系, 三维坐标系更符合服务平台化的大环境.
  *) 数据模型的设计
  具体RPC服务的注册路径为: /rpc/{product}/{service}/{version}, 该路径上的节点都是永久节点
  RPC服务集群节点的注册路径为: /rpc/{product}/{service}/{version}/{ip:port}, 末尾的节点是临时节点
  *) RPC服务节点的配置和行为
  服务端的配置如下所示:

<register>
  <server>{ip:port => Zookeeper的地址列表}</servers>
  <application>{application name => 服务的应用程序名}</application>
</register>

<server>
  <interface>{interface => 服务接口名}</interface>
  <version>{version => 服务版本号}</version>
  <class>{class => interface的具体实现Handler类}</class>
  <port>{提供服务的监听端口}</port>
</server>

  服务端的注册逻辑:

Zookeeper zk = new Zookeeper("127.0.0.1:2181", timeout, null);
while ( !application exit ) {
  Stat stat = zk.exists("/rpc/{product}/{service}/{version}/{ip:port}", false);
  if ( stat == null ) {
    zk.create("/rpc/{product}/{service}/{version}/{ip:port}", Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);
  }
  Thread.sleep(wait_timeout);
}	

  注: zookeeper client与zookeeper的断开会导致临时节点的丢失, 因此需要重新构建, 这边采用开启一个循环线程, 用于定时轮询.

RPC客户端:
  客户端的简单注册配置:

<register>
  <server>{ip:port => Zookeeper的地址列表}</servers>
  <application>{application name => 服务的应用程序名}</application>
</register>

<service>
  <interface>{interface => 服务接口名}</interface>
  <version>{version => 服务版本号}</version>
</sevice>	

  客户端的代码:
  1). 初始获取server列表

Zookeeper zk = new Zookeeper("127.0.0.1:2181", timeout, null);
List<String> childrens = zk.getChildren(path, true);

  2). 注册Watcher监听, EventType.NodeChildrenChanged事件, 每次回调, 重新获取列表

class WatcherWarpper implements Watcher {
  public void process(WatchedEvent event) {
    if ( event.getType() == EventType.NodeChildrenChanged ) {
      List<String> childrens = zk.getChildren(path, true);
      // notify Thrift client, rpc service的server ip:port列表发生了变化
    }
  }
}

总结:

  这部分其实涉及thrift点并不多, 但该文确实是rpc服务平台化的理论基础. 服务端作为服务的发布方, 而客户端借助zookeeper的watcher机制, 来实现其对服务列表的订阅更新功能. 从而达到解耦, 迈出服务平台化的一步.

后续:
  后续文章讲解Thrift client连接池的实现, 也是比较基础的一部分, 敬请期待.

Thrift 个人实战--RPC服务的发布订阅实现(基于Zookeeper服务)

时间: 2024-12-13 01:43:46

Thrift 个人实战--RPC服务的发布订阅实现(基于Zookeeper服务)的相关文章

Dubbo——基于Zookeeper服务框架搭建及案例演示

一.了解SOA微服务架构 在大规模服务化之前,应用可能只是通过RMI或Hessian等工具,简单的暴露和引用远程服务,通过配置服务的URL地址进行调用,通过F5等硬件进行负载均衡. (1) 当服务越来越多时,服务URL配置管理变得非常困难,F5硬件负载均衡器的单点压力也越来越大. 此时需要一个服务注册中心,动态的注册和发现服务,使服务的位置透明. 并通过在消费方获取服务提供方地址列表,实现软负载均衡和Failover,降低对F5硬件负载均衡器的依赖,也能减少部分成本. (2) 当进一步发展,服务

Thrift 个人实战--Thrift RPC服务框架日志的优化

前言: Thrift作为Facebook开源的RPC框架, 通过IDL中间语言, 并借助代码生成引擎生成各种主流语言的rpc框架服务端/客户端代码. 不过Thrift的实现, 简单使用离实际生产环境还是有一定距离, 本系列将对Thrift作代码解读和框架扩充, 使得它更加贴近生产环境. 本文讲述RPC服务框架中, 日志的重要性, 以及logid的引入. 日志不仅包含丰富的数据(就看是否会挖掘), 而且还是线上服务问题追踪和排查错误最好的方式. 日志级别 采用大家喜闻乐见的log4j作为该RPC服

微信公众平台服务号与订阅号区别详解【有图】

微信公众平台现在分为两个类别的号:一个是服务号,一个订阅号.服务号是针对企业的,订阅号是针对个人的.这个两种类型的号有很大的区别,特别是功能上有所不同. 工具/原料 电脑.微信公众平台 微信公众平台服务号与订阅号"首页"区别 1 微信公众平台服务号首页面:主要的标志是:服务号 其他的和订阅号一样.如下图所示: 2 微信公众平台订阅号首页面:主要的标志是:订阅号 其他的和服务号一样.如下图所示: 3 微信公众平台服务号与订阅号进入的首页界面是一样的,主要的区别就是标志不一样,明确指出所登

利用Redis发布订阅完成tomcat集群下的消息通知

博主是刚入职半年的新手,如果有说的不对的地方请各位大佬见谅! 这是博主的第一篇博客,可能排版以及一些描述有不合理的地方还请勿喷,希望大家尽可能的多给我这样的新手一些鼓励让我能在写博客的道路上走下去. 进入正题,首先开发背景 近期公司的一些项目上出现了内存溢出的问题,究其原因是缓存的数据量太大导致jvm内存溢出,产品的架构上比较老所以针对缓存这块,领导叫我去重构移植到Redis中,博主之前并没有学习过Redis以及关于分布式系统的并发问题,所以也是对我的一次挑战,还好没有辜负领导的期望在期望时间之

[转载] 基于zookeeper、连接池、Failover/LoadBalance等改造Thrift 服务化

转载自http://blog.csdn.net/zhu_tianwei/article/details/44115667 http://blog.csdn.net/column/details/slimina-thrift.html 对于Thrift服务化的改造,主要是客户端,可以从如下几个方面进行: 1.服务端的服务注册,客户端自动发现,无需手工修改配置,这里我们使用zookeeper,但由于zookeeper本身提供的客户端使用较为复杂,因此采用curator-recipes工具类进行处理服

基于zookeeper、连接池、Failover/LoadBalance等改造Thrift 服务化

对于Thrift服务化的改造,主要是客户端,可以从如下几个方面进行: 1.服务端的服务注册,客户端自动发现,无需手工修改配置,这里我们使用zookeeper,但由于zookeeper本身提供的客户端使用较为复杂,因此采用curator-recipes工具类进行处理服务的注册与发现. 2.客户端使用连接池对服务调用进行管理,提升性能,这里我们使用Apache Commons项目commons-pool,可以大大减少代码的复杂度. 3.关于Failover/LoadBalance,由于zookeep

【转帖】基于Zookeeper的服务注册与发现

http://www.techweb.com.cn/network/hardware/2015-12-25/2246973.shtml 背景 大多数系统都是从一个单一系统开始起步的,随着公司业务的快速发展,这个单一系统变得越来越庞大,带来几个问题: 1. 随着访问量的不断攀升,纯粹通过提升机器的性能来已经不能解决问题,系统无法进行有效的水平扩展 2. 维护这个单一系统,变得越来越复杂 3. 同时,随着业务场景的不同以及大研发的招兵买马带来了不同技术背景的工程师,在原有达达Python技术栈的基础

LAMP平台扩展:基于NFS服务实现博客站点负载均衡

nfs简介: nfs:Network File System,网络文件系统:是一种分布式文件系统协议,最初由Sun公司开发.其功能旨在允许客户端主机可以像访问本地存储一样通过网络访问服务器端文件. NFS和其他许多协议一样,是基于RPC协议实现的. rpc:Remote Procedure Call,远程过程调用:是一个计算机通信协议.该协议允许运行于一台计算机的程序调用另一台计算机的子程序.调用远程主机上的函数,一部分功能由本地程序,另一部分功能由远程主机上的函数完成. rpcbind:RPC

SpringCloud微服务(03):Hystrix组件,实现服务熔断

本文源码:GitHub·点这里 || GitEE·点这里 一.熔断器简介 微服务架构特点就是多服务,多数据源,支撑系统应用.这样导致微服务之间存在依赖关系.如果其中一个服务故障,可能导致系统宕机,这就是所谓的雪崩效应. 1.服务熔断 微服务架构中某个微服务发生故障时,要快速切断服务,提示用户,后续请求,不调用该服务,直接返回,释放资源,这就是服务熔断. 熔断生效后,会在指定的时间后调用请求来测试依赖是否恢复,依赖的应用恢复后关闭熔断. 2.服务降级 服务器高并发下,压力剧增的时候,根据当业务情况