反应器(Reactor)和主动器(Proactor)

  网络方面用的比较多的库是libevent和boost.asio,两者都是跨平台的。其中libevent是基于Reactor实现的,而boost.asio是基于Proactor实现的。Reactor和Proactor模式的主要区别就是真正的操作(如读/写)是由谁来完成的,Reactor中需要应用程序自己读取或者写入数据,而在Proactor模式中,应用程序不需要进行实际的读/写过程,操作系统会读取缓冲区或者写入缓冲区到真正的IO设备,应用程序只需要从缓冲区读取(操作系统已经帮我们读好了)或者写入(操作系统会帮我们写入)即可。在Proactor模式中,用户发起异步操作之后就返回了,让操作系统去处理请求,然后等着回调到完成事件函数中处理异步操作的结果。

1. 反应器(Reactor)

  Reactor一般是应用程序先注册响应的事件处理器,然后启动Reactor的事件循环,不断的检查是否有就绪的IO事件,当有就绪IO事件发生时,反应器的事件循环就会调用事先注册好的事件处理器。下面代码是libevent的一个简单应用代码及就绪的IO事件发生时的堆栈图,其中就绪IO事件可以使用网络调试助手,连接本机之后即可产生。

#include "stdafx.h"
#include <string.h>
#include <errno.h>
#include <stdio.h>
#include <signal.h>
#ifndef WIN32
#include <netinet/in.h>
# ifdef _XOPEN_SOURCE_EXTENDED
#  include <arpa/inet.h>
# endif
#include <sys/socket.h>
#endif

#include <event2/bufferevent.h>
#include <event2/buffer.h>
#include <event2/listener.h>
#include <event2/util.h>
#include <event2/event.h>

static const char MESSAGE[] = "Hello, World!\n";

static const int PORT = 9995;

static void listener_cb(struct evconnlistener *, evutil_socket_t,
    struct sockaddr *, int socklen, void *);
static void conn_writecb(struct bufferevent *, void *);
static void conn_eventcb(struct bufferevent *, short, void *);
static void signal_cb(evutil_socket_t, short, void *);

int
main(int argc, char **argv)
{
    struct event_base *base;
    struct evconnlistener *listener;
    struct event *signal_event;

    struct sockaddr_in sin;
#ifdef WIN32
    WSADATA wsa_data;
    WSAStartup(0x0201, &wsa_data);
#endif

    base = event_base_new();
    if (!base) {
        fprintf(stderr, "Could not initialize libevent!\n");
        return 1;
    }

    memset(&sin, 0, sizeof(sin));
    sin.sin_family = AF_INET;
    sin.sin_port = htons(PORT);

    listener = evconnlistener_new_bind(base, listener_cb, (void *)base,
        LEV_OPT_REUSEABLE|LEV_OPT_CLOSE_ON_FREE, -1,
        (struct sockaddr*)&sin,
        sizeof(sin));

    if (!listener) {
        fprintf(stderr, "Could not create a listener!\n");
        return 1;
    }

    signal_event = evsignal_new(base, SIGINT, signal_cb, (void *)base);

    if (!signal_event || event_add(signal_event, NULL)<0) {
        fprintf(stderr, "Could not create/add a signal event!\n");
        return 1;
    }

    event_base_dispatch(base);

    evconnlistener_free(listener);
    event_free(signal_event);
    event_base_free(base);

    printf("done\n");
    return 0;
}

static void
listener_cb(struct evconnlistener *listener, evutil_socket_t fd,
    struct sockaddr *sa, int socklen, void *user_data)
{
    struct event_base *base = (event_base *)user_data;
    struct bufferevent *bev;

    bev = bufferevent_socket_new(base, fd, BEV_OPT_CLOSE_ON_FREE);
    if (!bev) {
        fprintf(stderr, "Error constructing bufferevent!");
        event_base_loopbreak(base);
        return;
    }
    bufferevent_setcb(bev, NULL, conn_writecb, conn_eventcb, NULL);
    bufferevent_enable(bev, EV_WRITE);
    bufferevent_disable(bev, EV_READ);

    bufferevent_write(bev, MESSAGE, strlen(MESSAGE));
}

static void
conn_writecb(struct bufferevent *bev, void *user_data)
{
    struct evbuffer *output = bufferevent_get_output(bev);
    if (evbuffer_get_length(output) == 0) {
        printf("flushed answer\n");
        bufferevent_free(bev);
    }
}

static void
conn_eventcb(struct bufferevent *bev, short events, void *user_data)
{
    if (events & BEV_EVENT_EOF) {
        printf("Connection closed.\n");
    } else if (events & BEV_EVENT_ERROR) {
        printf("Got an error on the connection: %s\n",
            strerror(errno));/*XXX win32*/
    }
    /* None of the other events can happen here, since we haven‘t enabled
     * timeouts */
    bufferevent_free(bev);
}

static void
signal_cb(evutil_socket_t sig, short events, void *user_data)
{
    struct event_base *base = (event_base *)user_data;
    struct timeval delay = { 2, 0 };

    printf("Caught an interrupt signal; exiting cleanly in two seconds.\n");

    event_base_loopexit(base, &delay);
}

  有连接时的堆栈图:

  从堆栈图中可以看出libevent只有一个线程在执行,都是从event_base_dispatch中逐渐回调的。反应器逆置了事件的处理流程,但是可以看出它不能同时支持大量客户请求或者耗时过长的请求,因为它串行化了所有的事件处理流程。

2. 主动器(Proactor)

  (1)Proactor需要调用者定义一个异步执行的操作,例如,socket的异步读/写;

  (2)执行异步操作,异步事件处理器将异步请求交给操作系统就返回了,让操作系统去完成具体的操作,操作系统在完成操作之后,会将完成事件放入一个完成事件队列。

  (3)异步事件分离器会检测完成事件,若检测到完成事件,则从完成队列中取出完成事件,并通知应用程序注册的完成事件处理函数去处理;

  (4)完成事件处理函数处理异步操作的结果。

  下面是一个基于boost::asio的异步服务器:

#include "stdafx.h"
#include <boost/asio.hpp>
#include <boost/bind/placeholders.hpp>
#include <boost/bind/bind.hpp>
#include <boost/system/error_code.hpp>
#include <boost/smart_ptr/enable_shared_from_this.hpp>

using namespace boost::asio;
namespace
{
    typedef boost::asio::io_service IoService;
    typedef boost::asio::ip::tcp TCP;

    std::string make_daytime_string()
    {
        using namespace std;
        time_t now = std::time(NULL);
        return ctime(&now);
    }  

    class tcp_connection
        : public boost::enable_shared_from_this<tcp_connection>
    {
    public:
        typedef boost::shared_ptr<tcp_connection> pointer;  

        static pointer create(IoService& io_service)
        {
            return pointer(new tcp_connection(io_service));
        }  

        TCP::socket& socket()
        {
            return socket_;
        }  

        void start()
        {
            message_ = make_daytime_string();  

            boost::asio::async_write(
                socket_,
                boost::asio::buffer(message_),
                boost::bind(&tcp_connection::handle_write,
                shared_from_this(),
                boost::asio::placeholders::error,
                boost::asio::placeholders::bytes_transferred));
        }
    private:
        tcp_connection(IoService& io_service)
            : socket_(io_service)
        {
        }  

        void handle_write(const boost::system::error_code& /*error*/,
            size_t /*bytes_transferred*/)
        {
            printf("write data!!!");
        }  

        TCP::socket socket_;
        std::string message_;
    };  

    class tcp_server
    {
    public:
        tcp_server(IoService& io_service)
            : acceptor_(io_service, TCP::endpoint(TCP::v4(), 10000))
        {
            start_accept();
        }
    private:
        void start_accept()
        {
            tcp_connection::pointer new_connection =
                tcp_connection::create(acceptor_.get_io_service());  

            acceptor_.async_accept(
                new_connection->socket(),
                boost::bind(&tcp_server::handle_accept,
                this,
                new_connection,
                boost::asio::placeholders::error));
        }  

        void handle_accept(tcp_connection::pointer new_connection,
            const boost::system::error_code& error)
        {
            if (!error)
            {
                new_connection->start();
                start_accept();
            }
        }  

        TCP::acceptor acceptor_;
    };
}  

// tcp_connection与tcp_server封装后
void test_asio_asynserver()
{
    try
    {
        IoService io_service;
        tcp_server server(io_service);  

        // 只有io_service类的run()方法运行之后回调对象才会被调用
        io_service.run();
    }
    catch (std::exception& e)
    {
        std::cerr << e.what() << std::endl;
    }
}  

int main()
{
    test_asio_asynserver();
    return 0;
}

  有连接时需要写入数据,但是写入数据并不是由用户写入的,而是把需要写入的数据提交给了系统,由系统择机写入,堆栈如下:

  总结两者,可以看出Reactor采用的是同步IO,主动器采用的是异步IO,同步和异步之分可以参考文章( IO - 同步,异步,阻塞,非阻塞 (亡羊补牢篇)),个人认为简单来说,同步IO是发出了请求,不管阻塞还是非阻塞,都需要调用者主动去check调用的结果;而异步IO是由被调用者通知调用者来处理结果。

  参考资料:boost库asio详解8——几个TCP的简单例子

时间: 2024-08-27 15:48:40

反应器(Reactor)和主动器(Proactor)的相关文章

ACE反应器(Reactor)模式(1)

转载于:http://www.cnblogs.com/TianFang/archive/2006/12/13/591332.html 1.ACE反应器框架简介 反应器(Reactor):用于事件多路分离和分派的体系结构模式 通常的,对一个文件描述符指定的文件或设备, 有两种工作方式: 阻塞与非阻塞.所谓阻塞方式的意思是指, 当试图对该文件描述符进行读写时, 如果当时没有东西可读,或者暂时不可写, 程序就进入等待状态, 直到有东西可读或者可写为止.而对于非阻塞状态, 如果没有东西可读, 或者不可写

ACE反应器(Reactor)模式(2)

转载于:http://www.cnblogs.com/TianFang/archive/2006/12/18/595808.html 在Socket编程中,常见的事件就是"读就绪","写就绪",通过对这两个事件的捕获分发,可以实现Socket中的异步操作. Socket编程中的事件处理器 在前面我们已经介绍过,在ACE反应器框架中,任何都必须派生自ACE_Event_Handler类,并通过重载其相应会调事件处理函数来实现相应的回调处理的.在Socket编程中,我们

ACE反应器(Reactor)模式(4)

转载于:http://www.cnblogs.com/TianFang/archive/2006/12/18/596012.html 定时器的实现 通过Reactor机制,还可以很容易的实现定时器的功能,使用方式如下. 编写一个事件反应器,重载handle_timeout()方法,该方法是定时器的触发时间到时,会自动触发该方法. 通过Reactor的schedule_timer()方法注册定时器. 启动reacotr的handle_events()事件分发循环. 当不想使用定时器时,可以通过Re

ObjectArx 中反应器Reactor的使用

反应器类派生于AcRxObject而不是AcDbObject,因为他们不是数据库对象,没有ID,拥有关系也不适用. 不同类型的反应器接收不同类型的通知事件.派生于AcDbDatabaseReactor的数据库反应器(database reactor)接收与数据库状态相关的事件,例始当一个对象被加入到数据库,在数据库中被修改或删除.这种反应器的通知发送者是数据库,所以它被加入到数据库的反应器列表中.派生于AcDbObjectReactor的对象反应器(object reactor)负责接收对象(o

ACE反应器(Reactor)模式(3)

转载于:http://www.cnblogs.com/TianFang/archive/2006/12/18/595938.html 在服务器端使用Reactor框架 使用Reactor框架的服务器端结构如下: 服务器端注册两种事件处理器,ClientAcceptor和ClientService ,ClientService类负责和客户端的通信,每一个ClientService对象对应一个客户端的Socket连接. ClientAcceptor专门负责被动接受客户端的连接,并创建ClientSe

IO设计模式:Reactor和Proactor对比

IO设计模式:Reactor和Proactor对比 平时接触的开源产品如Redis.ACE,事件模型都使用的Reactor模式:而同样做事件处理的Proactor,由于操作系统的原因,相关的开源产品也少:这里学习下其模型结构,重点对比下两者的异同点: 反应器Reactor Reactor模式结构 Reactor包含如下角色: Handle 句柄:用来标识socket连接或是打开文件: Synchronous Event Demultiplexer:同步事件多路分解器:由操作系统内核实现的一个函数

转: IO设计模式:Reactor和Proactor对比

转: https://segmentfault.com/a/1190000002715832 平时接触的开源产品如Redis.ACE,事件模型都使用的Reactor模式:而同样做事件处理的Proactor,由于操作系统的原因,相关的开源产品也少:这里学习下其模型结构,重点对比下两者的异同点: 反应器Reactor Reactor模式结构 Reactor包含如下角色: Handle 句柄:用来标识socket连接或是打开文件: Synchronous Event Demultiplexer:同步事

Reactor模式与Proactor模式

该文章总结了网上资源对这两种模式的描述 原文地址:http://www.cnblogs.com/dawen/archive/2011/05/18/2050358.html 1.标准定义 两种I/O多路复用模式:Reactor和Proactor 一般地,I/O多路复用机制都依赖于一个事件多路分离器(Event Demultiplexer).分离器对象可将来自事件源的I/O事件分离出来,并分发到对应的read/write事件处理器(Event Handler).开发人员预先注册需要处理的事件及其事件

高性能IO设计中的Reactor模式与Proactor模式

在高性能的IO设计中,有两个比较著名的模式Reactor和Proactor模式,其中Reactor模式用于同步I/O,而Proactor运用于异步I/O操作.在比较这两个模式之前,我们首先要搞明白几个概念.什么是阻塞和非阻塞?什么是同步和异步?同步和异步是针对应用程序和内核的交互而言的,同步指的是用户进程触发IO操作并等待或者轮询的去查看IO操作是否就绪,而异步是指用户进程触发IO操作以后便开始做自己的事情,而当IO操作已经完成的时候会得到IO完成的通知(异步的特点就是通知).而阻塞和非阻塞是针