Netty网络框架

Netty网络框架

Netty是一个异步的基于事件驱动的网络框架。

为什么要使用Netty而不直接使用JAVA中的NIO

1.Netty支持三种IO模型同时支持三种Reactor模式。

2.Netty支持很多应用层的协议,提供了很多decoder和encoder。

3.Netty能够解决TCP长连接所带来的缺陷(粘包、半包等)

4.Netty支持应用层的KeepAlive。

5.Netty规避了JAVA NIO中的很多BUG,性能更好。


Netty启动服务端

1.创建ServerBootstrap服务端启动对象。

2.配置bossGroup和workerGroup,其中bossGroup负责接收连接,workerGroup负责处理连接的读写就绪事件。

3.配置父Channel,一般为NioServerSocketChannel。

4.配置子Channel与Handler之间的关系。

5.给父Channel配置参数。

6.给子Channel配置参数。

7.绑定端口,启动服务。

private void start() {
        EventLoopGroup bossGroup = new NioEventLoopGroup();
        EventLoopGroup workerGroup = new NioEventLoopGroup();
        ServerBootstrap serverBootstrap = new ServerBootstrap();
        serverBootstrap
                .group(bossGroup, workerGroup)
                .channel(NioServerSocketChannel.class) // 配置父Channel
                .childHandler(new ChannelInitializer<SocketChannel>() { // 配置子Channel与Handler之间的关系
                    @Override
                    protected void initChannel(SocketChannel socketChannel) {
                        // 往ChannelPipeline中添加ChannelHandler
                        socketChannel.pipeline().addLast(
                                new HttpRequestDecoder(),
                                new HttpObjectAggregator(65535),
                                new HttpResponseEncoder(),
                                new HttpServerHandler()
                        );
                    }
                })
                .option(ChannelOption.SO_BACKLOG, 128) // 给父Channel配置参数
                .childOption(ChannelOption.SO_KEEPALIVE, true); // 给子Channel配置参数

        try {
            // 绑定端口,启动服务
            System.out.println("start server and bind 8888 port ...");
            serverBootstrap.bind(8888).sync();
        } catch (InterruptedException e) {
            bossGroup.shutdownGracefully();
            workerGroup.shutdownGracefully();
        }
    }

Netty启动客户端

1.创建Bootstrap客户端启动对象。

2.配置workerGroup,负责处理连接的读写就绪事件。

3.配置父Channel,一般为NioSocketChannel。

4.给父Channel配置参数。

5.配置父Channel与Handler之间的关系。

6.连接服务器。

private void start() {
        EventLoopGroup workerGroup = new NioEventLoopGroup();

        Bootstrap bootstrap = new Bootstrap();
        bootstrap.group(workerGroup)
                .channel(NioSocketChannel.class) // 配置父Channel
                .option(ChannelOption.SO_KEEPALIVE, true) // 给父Channel配置参数
                .handler(new ChannelInitializer<SocketChannel>() { // 配置父Channel与Handler之间的关系
                    @Override
                    protected void initChannel(SocketChannel socketChannel) throws Exception {
                        socketChannel.pipeline().addLast(new TimeClientHandler());
                    }
                });

        try {
            bootstrap.connect(new InetSocketAddress(8888)).sync(); // 连接服务器
        } catch (InterruptedException e) {
            workerGroup.shutdownGracefully();
        }
    }

ChannelInBoundHandler接口声明了事件的处理方法

channelActive():当建立一个新的Channel时调用该方法

handlerAdd():当往Channel的ChannelPipeline中添加Handler时调用该方法

handlerRemove():当移除ChannelPipeline中的Handler时调用该方法

channelRead():当Channel有数据可读时调用该方法

exceptionCaught():当在处理事件发生异常时调用该方法

ServerSocketChannel每接收到一个新的连接时都会建立一个SocketChannel,然后调用ChannelInitializer的init方法初始化Channel,方法中配置Channel与Handler之间的关系,然后调用Handler的handlerAdd()和channelActive()方法。

关于ChannelPipeline

ChannelPipeline底层使用双向链表。

当Channel有数据可读时,会沿着链表从前往后寻找有IN性质的Handler进行处理。

当Channel写入数据时,会沿着链表从后往前寻找有OUT性质的Handler进行处理。

关于write()和flush()方法

graph TB;
S1[Channel的write方法] --将数据写入到缓冲区--> buffer[缓冲区];
S2[Channel的flush方法] --发送缓冲区中的数据并清空--> buffer[缓冲区];
buffer --发送--> S3[SocketChannel];

write():将数据写入到缓冲区
flush():发送缓冲区中的数据并进行清空
writeAndFlush():将数据写入到缓冲区,同时发送缓冲区中的数据并进行清空

Channel的writeAndFlush()和flush()方法会从链表的最后一个节点开始从后往前寻找有OUT性质的Handler进行处理。

ChannelHandlerContext的writeAndFlush()和flush()方法会从当前节点从后往前寻找有OUT性质的Handler进行处理。

关于写就绪事件

当SocketChannel可以写入数据时,将会触发写就绪事件,所以一般不能随便监听,否则将会一直触发。

当SocketChannel在写入数据写不进时(缓冲区已经满了),向Selector传递要监听此Channel的写就绪事件,然后强制发送缓冲区中的数据并进行清空,此时将会触发写就绪事件,当Selector处理完写就绪事件后,应当剔除监听此Channel的写就绪事件。

为什么说Netty中的所有操作都是异步的

Channel中的所有任务都会放入到其绑定的EventLoop的任务队列中,然后等待被EventLoop中的线程处理。

关于ChannelFuture

由于Netty中的所有操作都是异步的,因此一般会返回ChannelFuture对象,用于存储Channel异步执行的结果。

当创建ChannelFuture实例时,isDone()方法返回false,仅当ChannelFuture被设置成成功或者失败时,isDone()方法才返回true。

可以往ChannelFuture中添加ChannelFutureListener,当任务被执行完毕后由IO线程自动调用。


Netty中的ByteBuf

ByteBuf有readerIndex和writerIndex两个指针,默认都为0,当进行写操作时移动writerIndex指针,读操作时移动readerIndex指针。

可读容量 = writerIndex - readerIndex

*只有read()/write()方法才会移动指针,get()/set()方法不会移动指针。

*ByteBuf支持动态扩容。

ByteBuf的创建和管理

使用ByteBufAllocator来创建和管理ByteBuf,其分别提供PooledByteBufAllocator和UnpooledByteBufAllocator实现类,分别代表池化和非池化。

*Netty同时也提供了Pooled和Unpooled工具类来创建和管理ByteBuf。

池化的ByteBuf(Pooled)

每次使用时都从池中取出一个ByteBuf对象,当使用完毕后再放回到池中。

每个ByteBuf都有一个refCount属性,仅当refCount属性为0时才将ByteBuf对象放回到池中。

ByteBuf的release()方法可以使refCount属性减1(一般由最后一个访问ByteBuf的Handler进行处理)

非池化的ByteBuf(Unpooled)

每次使用时都创建一个新的ByteBuf对象。

使用池化ByteBuf的风险

如果每次使用ByteBuf后却不进行释放,那么有可能发生内存泄漏,对象池中会不停的创建ByteBuf对象。

非池化的ByteBuf对象能够依赖JVM自动进行回收。

关于堆内和堆外的ByteBuf

池化和非池化的ByteBufAllocator中都可以创建堆内和堆外的ByteBuf对象。

堆外的ByteBuf可以避免在进行IO操作时数据从堆内内存复制到操作系统内存的过程,所以对于IO操作来说一般使用堆外的ByteBuf,而对于内部业务数据处理来说使用堆内的ByteBuf。


Netty支持的IO模型

Netty支持BIO、NIO、AIO三种IO模型。

*其中AIO模型只在Netty的5.x版本有提供,但不建议使用,因为Netty不再维护同时也废除了5.x版本,其原因是在Linux中AIO比NIO强不了多少。

Netty如何切换IO模型

只需要将EventLoopGroup和ServerSocketChannel换成相应IO模型的API即可。


Netty中使用Reactor模式

Reactor单线程模式

EventLoopGroup eventLoopGroup = new NioEventLoopGroup(1);

Reactor多线程模式

EventLoopGroup eventLoopGroup = new NioEventLoopGroup();

*默认CPU核数 x 2个EventLoop。

主从Reactor多线程模式

EventLoopGroup bossGroup = new NioEventLoopGroup();
EventLoopGroup workerGroup = new NioEventLoopGroup();

关于TCP的粘包和半包

粘包(多个数据包被合并成一个进行发送)

graph LR;
data1[ABC] --> compact[ABCDEF];
data2[DEF] --> compact;
compact --send--> net[网络]

半包(一个数据包被拆分成多个进行发送)

graph LR;
data1[ABCDEF] --> part1[ABC];
data1 --> part2[DEF];
part1 --send--> net1[网络];
part2 --send--> net2[网络];

发生粘包的原因

1.写入的数据远小于缓冲区的大小,TCP协议为了性能的考虑,合并后再进行发送。

发生半包的原因

1.写入的数据大于缓冲区的大小,因此必须拆包后再进行传输(缓冲区已满,强制flush)

2.写入的数据大于协议的MTU(最大传输单元),因此必须拆包后再进行传输。

TCP长连接的缺陷

长连接中可以发送多个请求,同时TCP协议是流式协议,消息无边界,所以有一个很棘手的问题,接收方怎么去知道一个请求中的数据到底是哪里到哪里,以及一个请求中的数据有可能是粘包后的结果,同时多个请求中的数据有可能是半包后的结果。

解决方案

1.使用短连接,连接开始和连接结束之间的数据就是请求的数据。

2.使用固定的长度,每个请求中的数据都使用固定的长度,接收方以接收到固定长度的数据来确定一个完整的请求数据。

3.使用指定的分隔符,每个请求中的数据的末尾都加上一个分隔符,接收方以分隔符来确定一个完整的请求数据。

4.使用特定长度的字段去存储请求数据的长度,接收方根据请求数据的长度来确定一个完整的请求数据。

Netty对TCP长连接缺陷的解决方案

FixedLengthFrameDecoder:使用固定的长度

DelimiterBasedFrameDecoder:使用指定的分隔符

LengthFieldBasedFrameDecoder:使用特定长度的字段去存储请求数据的长度

关于TCP的KeepAlive

正常情况下双方建立连接后是不会断开的,KeepAlive就是防止连接双方中的任意一方由于意外断开而通知不到对方,导致对方一直持有连接,占用资源。

*建立连接需要三次握手、正常断开连接需要四次挥手。

KeepAlive有三个核心参数

net.ipv4.tcp_keepalive_timeout:连接的超时时间(默认7200s)

net.ipv4.tcp_keepalive_intvl:发送探测包的间隔(默认75s)

tnet.ipv4.cp_keepalive_probes:发送探测包的个数(默认9个)

这三个参数都是系统参数,会影响部署在机器上的所有应用。

KeepAlive的开关是在应用层开启的,只有当应用层开启了KeepAlive,KeepAlive才会生效。

java.net.Socket.setKeepAlive(boolean on);

当连接在指定时间内没有发送请求时,开启KeepAlive的一端就会向对方发送一个探测包,如果对方没有回应,则每隔指定时间发送一个探测包,总共发送指定个探测包,如果对方都没有回应则认为对方不可用,断开连接。

为什么要做应用层的KeepAlive

1.KeepAlive参数是系统参数,对于应用来说不够灵活。

2.默认检测一个不可用的连接所需要的时间太长。

怎么做应用层的KeepAlive

1.定时任务

客户端定期向所有已经建立连接的服务端发送心跳检测,如果服务端连续没有回应指定个心跳检测,则认为对方不可用,此时客户端应该重连。

服务端定期向所有已经建立连接的客户端发送心跳检测,如果客户端连续没有回应指定个心跳检测,则认为对方不可用,此时应该断开连接。

2.计时器

连接在指定时间内没有发送请求则认为对方不可用

Netty对KeepAlive的支持

Netty开启KeepAlive

Bootstrap.option(ChannelOption.SO_KEEPALIVE,true);
ServerBootstrap.childOption(ChannelOption.SO_KEEPALIVE,true);

Netty提供的KeepAlive机制

Netty提供的IdleStateHandler能够检测处于Idle状态的连接。

Idle状态类型

reader_idle:SocketChannel在指定时间内都没有数据可读

writer_idle:SocketChannel在指定时间内没有写入数据

all_idle:SocketChannel在指定时间内没有数据可读或者没有写入数据

直接将IdleStateHandler添加到ChannelPipeline即可,当Netty检测到处于Idle状态的连接时,将会自动调用其Handler的userEventTriggered()方法,用户只需要在该方法中判断Idle状态的类型,然后做出相应的处理。

关于HTTP的KeepAlive

HTTP的KeepAlive是对长连接和短连接的选择,并不是保持连接存活的一种机制。

HTTP是基于请求和响应的,客户端发送请求给服务端然后等待服务端的响应,当服务端检测到请求头中包含Connection:KeepAlive时,表示客户端使用长连接,此时服务端应该保持连接,当检测到请求头中包含Connection:close时,表示客户端使用短连接,此时服务端应该主动断开连接。

TCP并不是基于请求和响应的,客户端可以发送请求给服务端,同时服务端也可以发送请求给客户端。

原文地址:https://www.cnblogs.com/funyoung/p/11978750.html

时间: 2024-10-07 07:41:49

Netty网络框架的相关文章

基于NIO的Netty网络框架

Netty是一个高性能.异步事件驱动的NIO框架,它提供了对TCP.UDP和文件传输的支持,Netty的所有IO操作都是异步非阻塞的,通过Future-Listener机制,用户可以方便的主动获取或者通过通知机制获得IO操作结果. Netty的优点有: a.功能丰富,内置了多种数据编解码功能.支持多种网络协议. b.高性能,通过与其它主流NIO网络框架对比,它的综合性能最佳. c.可扩展性好,可通过它提供的ChannelHandler组件对网络通信方面进行灵活扩展. d.易用性,API使用简单.

Spark1.6之后为何使用Netty通信框架替代Akka

解决方案: 一直以来,基于Akka实现的RPC通信框架是Spark引以为豪的主要特性,也是与Hadoop等分布式计算框架对比过程中一大亮点. 但是时代和技术都在演化,从Spark1.3.1版本开始,为了解决大块数据(如Shuffle)的传输问题,Spark引入了Netty通信框架,到了1.6.0版本,Netty居然完成取代了Akka,承担Spark内部所有的RPC通信以及数据流传输. 网络IO扫盲贴 在Linux操作系统层面,网络操作即为IO操作,总共有:阻塞式,非阻塞式,复用模型,信号驱动和异

python 网络框架twisted基础学习及详细讲解

twisted网络框架的三个基础模块:Protocol, ProtocolFactory, Transport.这三个模块是构成twisted服务器端与客户端程序的基本. Protocol:Protocol对象实现协议内容,即通信的内容协议ProtocolFactory: 是工厂模式的体现,在这里面生成协议Transport: 是用来收发数据,服务器端与客户端的数据收发与处理都是基于这个模块 在windows中安装twisted需要先安装pywin32,自己去下载下就行.随后pip instal

发布C++实现的TCP网络框架Khala

1.Khala简介 Khala(卡拉)是用C++实现的TCP网络框架.底层采用muduo网络库作为网络IO+线程模型,并封装实现了网络实现与业务逻辑分离的多线程网络框架,具有超时退出.多设备多事件注册支持.设备生命周期管理.设备间通信等功能. 项目托管地址:https://github.com/moyangvip/khala 2.底层支持 Khala底层采用muduo作为网络IO支持.muduo类似于市面上一些常用开源event-driven网络库(如libevent),实现了基于Reactor

【Android】自己写的轻量级安卓网络框架——能够控制网络连接,支持缓存

1原因: 之所以写这个框架是因为网上的好多的网络框架都没有很好的对网络连接进行控制,比如当你点击取消的时候只是对话框取消了,后台网络请求还是在继续,这样就造成了activity的无法释放,更严重的情况是降低APP流畅度,所以就结合自己的需求写了个这样轻量级的网络框架 2解决方案: 我已经开源了,放在了OSC上,框架目前还不是很完善,所以需要慢慢改善,不过这个流程目前感觉是非常不错的,当activity销毁的时候基本不会存在无法释放问题.当你点击取消的时候也不会出现后台网络请求还在继续的情况. h

Android网络框架OkHttp之get请求(源码初识)

概括 OkHttp现在很火呀.于是上个星期就一直在学习OkHttp框架,虽然说起来已经有点晚上手了,貌似是2013年就推出了.但是现在它版本更加稳定了呀.这不,说着说着,OkHttp3.3版本在这几天又发布了.以下以OkHttp3.2版本为准,没办法,上个星期看的时候还是以3.2为最新版本的.首先,我们要先了解一些背景,OkHttp这个框架是有Square公司推出的,进入官网.如果想看API,点击进入API.大概了解了OkHttp之后,我们应该知道OkHttp是一个网络框架,想想以前在开发中,网

迅速上手Retrofit+RxJava+Okhttp+FastJson的网络框架[RRO]

Retrofit以其灵活的调用形式, 强大的扩展性著称. 随着RxAndroid的推出, Retrofit这样的可插拔式的网络框架因其可以灵活兼容各种数据解析器, 回调形式(主要还是RxJava啦)而更加风靡. 但是! Retrofit2官方虽有一堆集成第三方json解析的实现,比如gson-converter等等..但唯独就是没有FastJson, 这让我很不解..于是自己动手模仿gson-converter写了一个fastjson-converter, 并封装为一个更易用的适合Android

Android最流行的网络框架(原创)

Android程序最重要的模块就是网络部分,如何从网络上下载数据,如何将处理过的数据上传至网络,往往是android程序的关键环节. Android原生提供基于HttpClient和HttpUrlConnection的两种网络访问方式.利用原生的这两种方式编写网络代码,需要自己考虑很多,获取数据或许可以,但是如果要将手机本地数据上传至网络,根据不同的web端接口,需要组织不同的数据内容上传,给手机端造成了很大的工作量. 目前有几种快捷的网络开发开源框架,给我们提供了非常大的便利,他们应该是and

基于redis AE的异步网络框架

最近一直在研究redis的源码,redis的高效率令人佩服. 在我们的linux机器上,cpu型号为, Intel(R) Pentium(R) CPU G630 @ 2.70GHz Intel(R) Pentium(R) CPU G630 @ 2.70GHz 上 set,get 都能达到每秒钟15W的请求处理量,真是佩服这代码的效率. 前几篇文章,主要是介绍了基本的代码,比如字符串处理,链表处理,hash等.这篇文章介绍网络的核心,基于事件反映的异步网络框架. 异步网络处理,是基于epoll的.