半同步半异步线程池的实现(C++11)

简介

处理大量并发任务时,一个请求对应一个线程来处理任务,线程的创建和销毁将消耗过多的系统资源,并增加上下文切换代价。线程池技术通过在系统中预先创建一定数量的线程(通常和cpu核数相同),当任务到达时,从线程池中分配一个线程进行处理,线程在处理完任务之后不用销毁,等待重用。

线程池包括半同步半异步和领导者追随者两种实现方式。线程池包括三部分,第一层是同步服务层,它处理来自上层的任务请求。第二层是同步队列层,同步服务层中的任务将添加到队列中。第三层是异步服务层,多个线程同时处理队列中的任务。

先贴上代码,然后逐一说明

示例代码

同步队列的实现代码:

// ThreadPool.cpp : 定义控制台应用程序的入口点。
//
#ifndef _synaqueue_h_
#define _synaqueue_h_

#include <list>
#include <mutex>
#include <thread>
#include <condition_variable>
#include <iostream>
using namespace std;

template<typename T>
class SynaQueue
{
public:
    SynaQueue(int maxSize) :m_maxSize(maxSize), m_needStop(false){}
    void Put(const T& x)
    {
        Add(x);
    }
    void Put(T&& x)
    {
        Add(forward<T>(x)); //完美转发,不改变参数的类型
    }
    void Take(list<T>& list)
    {
        unique_lock<mutex> locker(m_mutex);
        // 判断式, 当不满足任一个条件时,条件变量会释放mutex, 并将线程置于waiting状态, 等待其他线程调用notify_one/all 将其唤醒。
        // 当满足其中一个条件时继续执行, 将队列中的任务取出,唤醒等待添加任务的线程
        // 当处于waiting状态的线程被唤醒时,先获取mutex,检查条件是否满足,满足-继续执行,否则释放mutex继续等待
        m_notEmpty.wait(locker, [this]{return m_needStop || NotEmpty(); });
        if (m_needStop)
            return;
        list = move(m_queue);
        m_notFull.notify_one();
    }
    void Take(T& t)
    {
        unique_lock<mutex> locker(m_mutex); // 锁
        m_notEmpty.wait(locker, [this]{return m_needStop || NotEmpty(); });
        if (m_needStop)
            return;
        t = m_queue.front();
        m_queue.pop_front();
        m_notFull.notify_one();
    }
    void Stop()
    {
        {
            lock_guard<mutex> locker(m_mutex);
            m_needStop = true;
        }
        m_notFull.notify_all(); // 将所有等待的线程全部唤醒,被唤醒的进程检查m_needStop,为真,所有的线程退出执行
        m_notEmpty.notify_all();
    }
    bool Empty()
    {
        lock_guard<mutex> locker(m_mutex);
        return m_queue.empty();
    }
    bool Full()
    {
        lock_guard<mutex> locker(m_mutex);
        return m_queue.size() == m_maxSize;
    }

    size_t Size()
    {
        lock_guard<mutex> locker(m_mutex);
        return m_queue.size();
    }
    int count()
    {
        return m_queue.size();
    }
private:
    bool NotFull() const
    {
        bool full = m_queue.size() >= m_maxSize;
        if (full)
            cout << "缓冲区满了,需要等待。。。。" << endl;
        return !full;
    }
    bool NotEmpty() const
    {
        bool empty = m_queue.empty();
        if (empty)
            cout << "缓冲区空了,需要等待,。。。异步层线程: " << this_thread::get_id() << endl;
        return !empty;
    }

    template<typename F>
    void Add(F&& x)
    {
        unique_lock<mutex> locker(m_mutex); // 通过m_mutex获得写锁
        m_notFull.wait(locker, [this]{return m_needStop || NotFull(); }); // 不需要停止且满了,就释放m_mutex并waiting;有一个为真就继续执行
        if (m_needStop)
            return;
        m_queue.push_back(forward<F>(x));
        m_notEmpty.notify_one();
    }

private:
    list<T> m_queue; //缓冲区
    mutex m_mutex;  // 互斥量
    condition_variable m_notEmpty; // 条件变量
    condition_variable m_notFull;
    int m_maxSize; //同步队列最大的size
    bool m_needStop; // 停止标识
};

#endif

线程池的实现代码:

#ifndef _threadpool_h_
#define _threadpool_h_
#include "synaqueue.h"
#include <list>
#include <thread>
#include <functional>
#include <memory>
#include <atomic>

const int MaxTaskCount = 100;
class ThreadPool
{
public:
    using Task = function < void() > ;
    ThreadPool(int numThread = thread::hardware_concurrency()) :m_queue(MaxTaskCount){ Start(numThread); }
    ~ThreadPool(){ Stop(); }
    void Stop()
    {
        call_once(m_flag, [this]{StopThreadGroup(); });
    }
    void AddTask(Task&& task)
    {
        m_queue.Put(forward<Task>(task));
    }
    void AddTask(const Task& task)
    {
        m_queue.Put(task);
    }
private:
    void Start(int numThreads)
    {
        m_running = true;
        //创建线程组
        for (int i = 0; i < numThreads; i++)
        {
            m_threadgroup.push_back(make_shared<thread>(&ThreadPool::RunInThread, this));
        }
    }

    // 每个线程都执行这个函数
    void RunInThread()
    {
        while (m_running)
        {
            //取任务分别执行
            list<Task> list;
            m_queue.Take(list);
            for (auto& task : list)
            {
                if (!m_running)
                    return;
                task();
            }
        }
    }
    void StopThreadGroup()
    {
        m_queue.Stop(); // 同步队列中的线程停止
        m_running = false; // 让内部线程跳出循环并推出
        for (auto thread : m_threadgroup)
        {
            if (thread)
                thread->join();
        }
        m_threadgroup.clear();
    }
private:
    list<shared_ptr<thread>> m_threadgroup; // 处理任务的线程组, 链表中存储着指向线程的共享指针
    SynaQueue<Task> m_queue; //同步队列
    atomic_bool m_running; // 是否停止的标识
    once_flag m_flag;
};

#endif

单元测试代码:

// ThreadPool.cpp : 定义控制台应用程序的入口点。
//

#include "stdafx.h"
#include "threadpool.h"

void TestThreadPool()
{
    ThreadPool pool(2);
    thread thd1([&pool]{
        for (int i = 0; i < 10; i++)
        {
            auto thrID = this_thread::get_id();
            pool.AddTask([thrID, i]{cout << "同步层线程1的线程ID:" << thrID << "  这是任务 " << i << endl; this_thread::sleep_for(chrono::seconds(2)); });
        }
    });

    thread thd2([&pool]{
        for (int i = 0; i < 10; i++)
        {
            auto thrID = this_thread::get_id();
            pool.AddTask([thrID, i]{cout << "同步层线程2的线程ID:" << thrID << "  这是任务 " << i << endl; this_thread::sleep_for(chrono::seconds(2)); });
        }
    });

    this_thread::sleep_for(chrono::seconds(45));
    pool.Stop();
    thd1.join();
    thd2.join();
}

int main()
{
    TestThreadPool();
}

同步队列

先看同步队列的数据成员, 成员函数都是在此基础上进行的操作:

private:
    list<T> m_queue; //缓冲区
    mutex m_mutex;  // 互斥量
    condition_variable m_notEmpty; // 条件变量
    condition_variable m_notFull;
    int m_maxSize; //同步队列最大的size
    bool m_needStop; // 停止标识

list<T> m_queue缓冲队列中存放任务,要对它进行访问需要使用一个互斥量m_mutex和两个条件变量m_notEmptym_notFull。这和操作系统中的生产者消费者相同。m_needStop用来标识线程池是否需要停止。

接下来看向同步队列中添加任务:

template<typename F>
    void Add(F&& x)
    {
        unique_lock<mutex> locker(m_mutex); // 通过m_mutex获得写锁
        // 不需要停止且满了,就释放m_mutex并waiting;有一个为真就继续执行
        m_notFull.wait(locker, [this]{return m_needStop || NotFull(); });
        if (m_needStop)
            return;
        m_queue.push_back(forward<F>(x));
        m_notEmpty.notify_one();
    }

unique_lock实现的是写锁,shared_lock实现的是读锁。条件变量的wait函数,检查第二个参数是否为真,如果为真,那么将会继续执行,如果为假,那么就释放mutex并将当前线程置于waiting状态,等待其他线程通过m_notFull.notify_one()唤醒。接下来检查结束标识是否设置。将任务添加到队列中,并通知某一个因为队列任务为空而等待的线程继续执行。

接下来看怎么取出来任务, 和添加任务一样,不再详细说明:

void Take(T& t)
    {
        unique_lock<mutex> locker(m_mutex); // 锁
        m_notEmpty.wait(locker, [this]{return m_needStop || NotEmpty(); });
        if (m_needStop)
            return;
        t = m_queue.front();
        m_queue.pop_front();
        m_notFull.notify_one();
    }

停止线程池:

void Stop()
    {
        {
            lock_guard<mutex> locker(m_mutex);
            m_needStop = true;
        }
        m_notFull.notify_all(); // 将所有等待的线程全部唤醒,被唤醒的进程检查m_needStop,为真,所有的线程退出执行
        m_notEmpty.notify_all();
    }

对数据成员要进行互斥操作,因此要先获得锁,lock_guard会在析构函数中释放锁,因此使用单独的空间。然后将等待添加任务和取出任务的线程全部唤醒,让他们自行终止。

线程池

数据成员:

private:
    list<shared_ptr<thread>> m_threadgroup; // 处理任务的线程组, 链表中存储着指向线程的共享指针
    SynaQueue<Task> m_queue; //同步队列
    atomic_bool m_running; // 是否停止的标识
    once_flag m_flag;

once_flagcall_once用来保证在多线程下函数只调用一次。

时间: 2024-10-22 04:10:37

半同步半异步线程池的实现(C++11)的相关文章

使用C++11 开发一个半同步半异步线程池

摘自:<深入应用C++11>第九章 实际中,主要有两种方法处理大量的并发任务,一种是一个请求由系统产生一个相应的处理请求的线程(一对一) 另外一种是系统预先生成一些用于处理请求的进程,当请求的任务来临时,先放入同步队列中,分配一个处理请求的进程去处理任务, 线程处理完任务后还可以重用,不会销毁,而是等待下次任务的到来.(一对多的线程池技术) 线程池技术,能避免大量线程的创建和销毁动作,节省资源,对于多核处理器,由于线程被分派配到多个cpu,会提高并行处理的效率. 线程池技术分为半同步半异步线程

c++11 实现半同步半异步线程池

感受: 随着深入学习,现代c++给我带来越来越多的惊喜- c++真的变强大了. 半同步半异步线程池: 其实很好理解,分为三层 同步层:通过IO复用或者其他多线程多进程等不断的将待处理事件添加到队列中,这个过程是同步进行的. 队列层:所有待处理事件都会放到这里.上一层事件放到这里,下一层从这里获取事件 异步层:事先创建好线程,让瞎猜呢和嗯不断的去处理队列层的任务,上层不关心这些,它只负责把任务放到队列里,所以对上层来说这里是异步的. 看张图: 如果你不熟悉c++11的内容 以下文章仅供参考 c++

(原创)C++半同步半异步线程池2

(原创)C++半同步半异步线程池 c++11 boost技术交流群:296561497,欢迎大家来交流技术. 线程池可以高效的处理任务,线程池中开启多个线程,等待同步队列中的任务到来,任务到来多个线程会抢着执行任务,当到来的任务太多,达到上限时需要等待片刻,任务上限保证内存不会溢出.线程池的效率和cpu核数相关,多核的话效率更高,线程数一般取cpu数量+2比较合适,否则线程过多,线程切换频繁反而会导致效率降低. 线程池有两个活动过程:1.外面不停的往线程池添加任务:2.线程池内部不停的取任务执行

半同步/半异步并发模式进程池实现

半同步/半异步并发模式:父进程监听到新的客户端连接请求后,以通信管道通知进程池中的某一子进程:"嘿,有新的客户连接来了,你去accept,然后处理下!",从而避免在进程间传递文件描述符.这种模式中,一个客户连接上的所有任务始终有同一个进程来处理. 具体细节,尽在代码中: #ifndef PROCESSPOOL_H #define PROCESSPOOL_H #include <sys/types.h> #include <sys/socket.h> #inclu

半同步/半反应堆线程池实现

半同步/半反应堆线程池:主线程监听listen socket和接收到的所有连接socket,当有客户端请求任务时,将任务对象插入到工作任务对象中:等待在任务队列上的工作线程通过竞争来取得任务对象并处理之.其中的工作任务队列完成了主线程与工作线程之间的解耦,但是由于同一客户连接的任务请求可能由不同的线程来处理,所以这要求所有的客户请求是无状态的. 具体细节,尽在代码中: #ifndef THREADPOOL_H #define THREADPOOL_H #include <list> #incl

半同步半异步高性能网络编程

网络编程的模式分为3种: 1. nginx的全异步方式,使用epoll处理网络数据.对于请求的处理也全然是异步的. 不论什么一个请求的处理假设花费了较长时间,那么nginx进程就会被处理操作堵塞,导致无法处理IO事件 2. 简单的一个连接一个线程方案.这样的方案无法处理大量并发的连接.适用mysql这类连接数不多的场景.当中也有一些优化的做法,比如使用线程池避免不断的创建销毁线程. 3. 半同步半异步方式,启动一个IO线程使用epoll处理网络数据. 当收到一个完整的请求包,把请求放到任务队列.

两种高效的并发模式(半同步/半异步和领导者/追随者)

一.并发编程与并发模式 并发编程主要是为了让程序同时执行多个任务,并发编程对计算精密型没有优势,反而由于任务的切换使得效率变低.如果程序是IO精密型的,则由于IO操作远没有CPU的计算速度快,所以让程序阻塞于IO操作将浪费大量的CPU时间.如果程序有多个线程,则当前被IO操作阻塞的线程可主动放弃CPU,将执行权转给其它线程.(*IO精密型和cpu精密型可以参考此文:CPU-bound(计算密集型) 和I/O bound(I/O密集型)) 并发编程主要有多线程和多进程,这里我们先讨论并发模式,并发

memcached源码分析-----半同步半异步网络模型

转载请注明出处:http://blog.csdn.net/luotuo44/article/details/42705475 半同步/半异步: memcached使用半同步/半异步网络模型处理客户端的连接和通信. 半同步/半异步模型的基础设施:主线程创建多个子线程(这些子线程也称为worker线程),每一个线程都维持自己的事件循环,即每个线程都有自己的epoll,并且都会调用epoll_wait函数进入事件监听状态.每一个worker线程(子线程)和主线程之间都用一条管道相互通信.每一个子线程都

MySQL主从复制:半同步、异步

MySQL主从复制:半同步.异步 大纲 前言 如何对MySQL进行扩展? MySQL Replication WorkFlow MySQL主从复制模式 实战演练 MySQL异步复制实现 MySQL半同步复制实现 实验中的思考 总结 前言 本篇我们介绍MySQL Replication的相关内容, 我们首先介绍MySQL CLuster的实现原理和如何一步步构建一个MySQL Replication Cluster 看懂本文需要了解: MySQL基本操作,MySQL日志类型及其作用 如何对MySQ