Netty3 源码分析 - 套接字绑定实现原理

前面关注的地方都是Netty采用的流水线处理方式的组织方式,ChannelHandler如何管理,通道状态,通道事件等这些上层的架构设计,那么Netty中如何实现诸如套接字绑定,连接,关闭等这些底层的操作呢?不能只顾着套用API写程序,却对细节不求甚解。这里大致追踪下OIO模式下Channel中套接字绑定的实现,(NIO以后分析)其实逻辑都是一样的,只是在线程模型的地方时不同的。

大致过程如下(详细的源码注释,看我的github):

1.我们在通过Bootstrap启动客户端或者服务端的时候会提供相应的ChannelFactory;

2.在这个Factory构造的过程中会得到相应的外部资源,和初始化底层的ChannelSink对象,否则的话一个Pipeline默认的Sink是DiscardingChannelSink没有任何公用;

3.Bootstrap的绑定方法打开通道,而后调用通道的bind方法;

4.绑定方法最终同意由Channels辅助类完成;

4.Channels.bind根据state和value构造一个state event,发送到最下面的DownstreamHandler;

4.那么这些命令都会最终由具体的ChannelSink来完成,因为具体的Channel中维护的是Java Socket以及输入输出流,所以这里就是真正的套接字绑定。

时间: 2024-10-05 12:14:21

Netty3 源码分析 - 套接字绑定实现原理的相关文章

Netty3 源码分析 - ChannelUpstreamHandler

Netty3 源码分析 - ChannelUpstreamHandler ChannelUpstreamHandler处理上行的通道事件,并且在流水线中传送事件.这个接口最常用的场景是拦截IO工作现场产生的事件,传输消息或者执行相关的业务逻辑.在大部分情况下,我们是使用SimpleChannelUpstreamHandler 来实现一个具体的upstream handler,因为它为每个事件类型提供了单个的处理方法.大多数情况下ChannelUpstreamHandler 是向上游发送事件,虽然

Netty3 源码分析 - NIO server绑定过程分析

一个框架封装的越好,越利于我们快速的coding,但是却掩盖了很多的细节和原理,但是源码能够揭示一切.服务器端代码在指定好ChannelFactory,设定好选项,而后Bootstrap.bind操作就会开启server,接受对端的连接.所以有必要对这后面的过程分析清楚,下图是关键流程.先是构建一个默认的Pipeline,为我们接下来要创建的监听通道服务,这个Pipeline里面会加入一个Binder的上行事件处理器:接下来创建了至关中的NioServerSocketChannel,在构造的过程

zuul源码分析-探究原生zuul的工作原理

前提 最近在项目中使用了SpringCloud,基于zuul搭建了一个提供加解密.鉴权等功能的网关服务.鉴于之前没怎么使用过Zuul,于是顺便仔细阅读了它的源码.实际上,zuul原来提供的功能是很单一的:通过一个统一的Servlet入口(ZuulServlet,或者Filter入口,使用ZuulServletFilter)拦截所有的请求,然后通过内建的com.netflix.zuul.IZuulFilter链对请求做拦截和过滤处理.ZuulFilter和javax.servlet.Filter的

Netty3 源码分析 - Channel

何为通道(Channel)?代表的是一个网络套接字的连接点(nexus). 一个通道抽象的内容包括: 1)当前通道状态,是否打开,是否绑定等: 2)通道的配置参数信息,如套接字缓冲区大小: 3)通道支持的IO操作: 4)处理和这个Channel相关的IO事件和请求的ChannelPipeline. 在Netty中所有的IO操作都是异步的,即执行一个IO调用的时候不会阻塞到操作完成,而后立即返回一个ChannelFuture对象,这个ChannelFuture对象会在某个时候通知我们IO操作执行结

Netty3 源码分析 - ClientBootstrap

Bootstrap是通道初始化辅助类 提供了初始化通道或子通道所需要的数据结构,那么ClientBootstrap就是客户端的,而且会执行连接操作. 配置通道,就是把相应的键值对选项传递给底层: ClientBootstrap b = ...; // Options for a new channel b.setOption("remoteAddress", new InetSocketAddress("example.com", 8080)); b.setOpti

Netty3 源码分析 - NIO server接受连接请求过程分析

当服务器端的server Channel绑定某个端口之后,就可以处理来自客户端的连接请求,而且在构建 NioServerSocketChannelFactory 的时候已经生成了对应的 BossPool 和 WorkerPool,前者管理的 NioServerBoss 就是专门用来接受客户端连接的Selector封装,当,下面是关键的代码: 1. AbstractNioSelector中的run方法代表这个boss thread的核心工作. public void run() { thread 

Netty3 源码分析 - ChannelFuture

ChannelFuture抽象的是Channel中异步IO操作的结果.在Netty中,所有的IO操作是异步的,意味着任何IO调用会立刻返回,而不是等到操作真正的执行完成.相反,会返回一个ChannelFuture 对象,在IO完成之后通过其得到结果状态.ChannelFuture 要么完成要么未完成,当IO操作开始执行会创建一个新的future对象,初始状态时uncompleted (不是成功,失败,也不是取消)因为IO操作还木有完成,一旦IO操作完成(成功,失败,或者被取消).这个CHanne

Netty3 源码分析 - ChannelPipeline

ChannelPipeline的作用就是组织一系列的ChannelHandlers 为某一个Channel服务,处理各种事件.实现了拦截过滤器模式的高级形式(an advanced form of the Intercepting Filter pattern),进而有效控制如何处理一个事件以及ChannelHandlers之间如何交互.类型结构图为: 流水线的创建:对于每个新的通道,必须为其创建和添置一个Pipeline,一旦设置,他们之间的耦合就是永久的,这个通道不同添置另一个流水线,不能解

Netty3 源码分析 - ChannelStateEvent

ChannelStateEvent是ChannelEvent的子接口,可以代表改变的通知或者是请求,取决于它是上行还是下行事件. UpstreamChannelStateEvent是默认的上行通道状态事件实现类.结合ChannelState中的表很容易看懂源码. DownstreamChannelStateEvent是默认的下行通道状态事件实现类.不同的是需要指定一个Future对象,当相应的动作完成后得到通知.源码很容易理解: public class DownstreamChannelSta