Python并发编程之线程池/进程池--concurrent.futures模块

h2 { color: #fff; background-color: #f7af0d; padding: 3px; margin: 10px 0px }

一、关于concurrent.futures模块

  

  Python标准库为我们提供了threading和multiprocessing模块编写相应的多线程/多进程代码,但是当项目达到一定的规模,频繁创建/销毁进程或者线程是非常消耗资源的,这个时候我们就要编写自己的线程池/进程池,以空间换时间。但从Python3.2开始,标准库为我们提供了concurrent.futures模块,它提供了ThreadPoolExecutor和ProcessPoolExecutor两个类,实现了对threading和multiprocessing的进一步抽象,对编写线程池/进程池提供了直接的支持。

1.Executor和Future:

  concurrent.futures模块的基础是Exectuor,Executor是一个抽象类,它不能被直接使用。但是它提供的两个子类ThreadPoolExecutor和ProcessPoolExecutor却是非常有用,顾名思义两者分别被用来创建线程池和进程池的代码。我们可以将相应的tasks直接放入线程池/进程池,不需要维护Queue来操心死锁的问题,线程池/进程池会自动帮我们调度。

  Future这个概念相信有java和nodejs下编程经验的朋友肯定不陌生了,你可以把它理解为一个在未来完成的操作,这是异步编程的基础,传统编程模式下比如我们操作queue.get的时候,在等待返回结果之前会产生阻塞,cpu不能让出来做其他事情,而Future的引入帮助我们在等待的这段时间可以完成其他的操作。

  p.s: 如果你依然在坚守Python2.x,请先安装futures模块。

pip install futures 

二、操作线程池/进程池

1.使用submit来操作线程池/进程池:

# 线程池:
from concurrent.futures import ThreadPoolExecutor
import urllib.request
URLS = [‘http://www.163.com‘, ‘https://www.baidu.com/‘, ‘https://github.com/‘]
def load_url(url):
    with urllib.request.urlopen(url, timeout=60) as conn:
        print(‘%r page is %d bytes‘ % (url, len(conn.read())))

executor = ThreadPoolExecutor(max_workers=3)

for url in URLS:
    future = executor.submit(load_url,url)
    print(future.done())

print(‘主线程‘)

# 运行结果:
False
False
False
主线程
‘https://www.baidu.com/‘ page is 227 bytes
‘http://www.163.com‘ page is 662047 bytes
‘https://github.com/‘ page is 54629 bytes

  我们根据运行结果来分析一下。我们使用submit方法来往线程池中加入一个task,submit返回一个Future对象,对于Future对象可以简单地理解为一个在未来完成的操作。由于线程池异步提交了任务,主线程并不会等待线程池里创建的线程执行完毕,所以执行了print(‘主线程‘),相应的线程池中创建的线程并没有执行完毕,故future.done()返回结果为False。

# 进程池:同上
from concurrent.futures import ProcessPoolExecutor
import urllib.request
URLS = [‘http://www.163.com‘, ‘https://www.baidu.com/‘, ‘https://github.com/‘]
def load_url(url):
    with urllib.request.urlopen(url, timeout=60) as conn:
        print(‘%r page is %d bytes‘ % (url, len(conn.read())))

executor = ProcessPoolExecutor(max_workers=3)
if __name__ == ‘__main__‘: # 要加main

    for url in URLS:
        future = executor.submit(load_url,url)
        print(future.done())
    print(‘主线程‘)

#运行结果:
False  # 子进程只完成创建,并没有执行完成
False 
False
主线程 # 子进程创建完成就会向下执行主线程,并不会等待子进程执行完毕
‘http://www.163.com‘ page is 662049 bytes
‘https://www.baidu.com/‘ page is 227 bytes
‘https://github.com/‘ page is 54629 bytes

2.使用map来操作线程池/进程池:

  除了submit,Exectuor还为我们提供了map方法,和内建的map用法类似:

from concurrent.futures import ThreadPoolExecutor
import urllib.request
URLS = [‘http://www.163.com‘, ‘https://www.baidu.com/‘, ‘https://github.com/‘]
def load_url(url):
    with urllib.request.urlopen(url, timeout=60) as conn:
        print(‘%r page is %d bytes‘ % (url, len(conn.read())))

executor = ThreadPoolExecutor(max_workers=3)

executor.map(load_url,URLS)

print(‘主线程‘)

# 运行结果:
主线程
‘http://www.163.com‘ page is 662047 bytes
‘https://www.baidu.com/‘ page is 227 bytes
‘https://github.com/‘ page is 54629 bytes

  从运行结果可以看出,map是按照URLS列表元素的顺序返回的,并且写出的代码更加简洁直观,我们可以根据具体的需求任选一种。

3.wait:

  wait方法接会返回一个tuple(元组),tuple中包含两个set(集合),一个是completed(已完成的)另外一个是uncompleted(未完成的)。使用wait方法的一个优势就是获得更大的自由度,它接收三个参数FIRST_COMPLETED, FIRST_EXCEPTION 和ALL_COMPLETE,默认设置为ALL_COMPLETED。

  如果采用默认的ALL_COMPLETED,程序会阻塞直到线程池里面的所有任务都完成,再执行主线程:

from concurrent.futures import ThreadPoolExecutor,wait,as_completed
import urllib.request
URLS = [‘http://www.163.com‘, ‘https://www.baidu.com/‘, ‘https://github.com/‘]
def load_url(url):
    with urllib.request.urlopen(url, timeout=60) as conn:
        print(‘%r page is %d bytes‘ % (url, len(conn.read())))

executor = ThreadPoolExecutor(max_workers=3)

f_list = []
for url in URLS:
    future = executor.submit(load_url,url)
    f_list.append(future)
print(wait(f_list))

print(‘主线程‘)

# 运行结果:
‘http://www.163.com‘ page is 662047 bytes
‘https://www.baidu.com/‘ page is 227 bytes
‘https://github.com/‘ page is 54629 bytes
DoneAndNotDoneFutures(done={<Future at 0x2d0f898 state=finished returned NoneType>, <Future at 0x2bd0630 state=finished returned NoneType>, <Future at 0x2d27470 state=finished returned NoneType>}, not_done=set())
主线程

  如果采用FIRST_COMPLETED参数,程序并不会等到线程池里面所有的任务都完成。

from concurrent.futures import ThreadPoolExecutor,wait,as_completed
import urllib.request
URLS = [‘http://www.163.com‘, ‘https://www.baidu.com/‘, ‘https://github.com/‘]
def load_url(url):
    with urllib.request.urlopen(url, timeout=60) as conn:
        print(‘%r page is %d bytes‘ % (url, len(conn.read())))

executor = ThreadPoolExecutor(max_workers=3)

f_list = []
for url in URLS:
    future = executor.submit(load_url,url)
    f_list.append(future)
print(wait(f_list,return_when=‘FIRST_COMPLETED‘))

print(‘主线程‘)

# 运行结果:
‘http://www.163.com‘ page is 662047 bytes
DoneAndNotDoneFutures(done={<Future at 0x2bd15c0 state=finished returned NoneType>}, not_done={<Future at 0x2d0d828 state=running>, <Future at 0x2d27358 state=running>})
主线程
‘https://www.baidu.com/‘ page is 227 bytes
‘https://github.com/‘ page is 54629 bytes

  ?写一个小程序对比multiprocessing.pool(ThreadPool)和ProcessPollExecutor(ThreadPoolExecutor)在执行效率上的差距,结合上面提到的Future思考为什么会造成这样的结果?

时间: 2025-01-02 06:55:19

Python并发编程之线程池/进程池--concurrent.futures模块的相关文章

python并发编程(管道,事件,信号量,进程池)

管道 Conn1,conn2 = Pipe() Conn1.recv() Conn1.send() 数据接收一次就没有了 from multiprocessing import Process,Pipe def f1(conn): from_zhujincheng = conn.recv() print('子进程') print('来自主进程的消息:',from_zhujincheng) if __name__ == '__main__': conn1,conn2 = Pipe() #创建一个管

python网络编程基础(线程与进程、并行与并发、同步与异步)

python网络编程基础(线程与进程.并行与并发.同步与异步) 目录 线程与进程 并行与并发 同步与异步 线程与进程 进程 前言 进程的出现是为了更好的利用CPU资源使到并发成为可能. 假设有两个任务A和B,当A遇到IO操作,CPU默默的等待任务A读取完操作再去执行任务B,这样无疑是对CPU资源的极大的浪费.聪明的老大们就在想若在任务A读取数据时,让任务B执行,当任务A读取完数据后,再切换到任务A执行.注意关键字切换,自然是切换,那么这就涉及到了状态的保存,状态的恢复,加上任务A与任务B所需要的

Python并发编程03/僵尸孤儿进程,互斥锁,进程之间的通信

目录 Python并发编程03/僵尸孤儿进程,互斥锁,进程之间的通信 1.昨日回顾 2.僵尸进程和孤儿进程 2.1僵尸进程 2.2孤儿进程 2.3僵尸进程如何解决? 3.互斥锁,锁 3.1互斥锁的应用 3.2Lock与join的区别 4.进程之间的通信 进程在内存级别是隔离的 4.1基于文件通信 (抢票系统) 4.2基于队列通信 Python并发编程03/僵尸孤儿进程,互斥锁,进程之间的通信 1.昨日回顾 1.创建进程的两种方式: 函数, 类. 2.pid: os.getpid() os.get

python并发编程基础之守护进程、队列、锁

并发编程2 1.守护进程 什么是守护进程? 表示进程A守护进程B,当被守护进程B结束后,进程A也就结束. from multiprocessing import Process import time ? def task(): print('妃子的一生') time.sleep(15) print('妃子死了') ? if __name__ == '__main__': fz = Process(target=task) fz.daemon = True #将子进程作为主进程的守护进程.必须在

python网络编程--管道,信号量,Event,进程池,回调函数

1.管道 加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行任务修改,即串行修改,速度慢了,但牺牲了速度却保证了数据安全. 文件共享数据实现进程间的通信,但问题是: 1.效率低(共享数据基于文件,而文件是硬盘上的数据) 2.需要自己加锁处理 而使用multiprocess模块为我们提供的基于消息IPC通信机制:通信和管道 可以帮我们解决这两个问题. 队列和管道都是将数据存放于内存内,而队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来来,因而队列才是进程间通信的

Python网络编程之线程与进程

What is a Thread? 线程是操作系统能够进行运算调度的最小单位,它被包含在进程之中,是进程中的实际运作单位,一条线程指的是进程中一个单一顺序的控制流,一个进程中可以并发多个线程,每条线程并行执行不同的任务. 在同一个进程内的线程的数据是可以进行互相访问的. 线程的切换使用过上下文来实现的,比如有一本书,有a和b这两个人(两个线程)看,a看完之后记录当前看到那一页哪一行,然后交给b看,b看完之后记录当前看到了那一页哪一行,此时a又要看了,那么a就通过上次记录的值(上下文)直接找到上次

py 并发编程(线程、进程、协程)

一.操作系统 操作系统是一个用来协调.管理和控制计算机硬件和软件资源的系统程序,它位于硬件和应用程序之间. 程序是运行在系统上的具有某种功能的软件,比如说浏览器,音乐播放器等.操作系统的内核的定义:操作系统的内核是一个管理和控制程序,负责管理计算机的所有物理资源,其中包括:文件系统.内存管理.设备管理和进程管理 二.进程和线程 进程: 假如有两个程序A和B,程序A在执行到一半的过程中,需要读取大量的数据输入(I/O操作), 而此时CPU只能静静地等待任务A读取完数据才能继续执行,这样就白白浪费了

Java并发编程:线程、进程的创建

首先要理清下进程.线程和应用程序概念. 从一定意义上讲,进程就是一个应用程序在处理机上的一次执行过程,它是一个动态的概念,而线程是进程中的一部分,进程包含多个线程在运行. a. 进程是一个具有独立功能的程序关于某个数据集合的一次运行活动.它可以申请和拥有系统资源,是一个动态的概念,是一个活动的实体.它不只是程序的代码,还包括当前的活动,通过程序计数器的值和处理寄存器的内容来表示. b. 进程是一个"执行中的程序".程序是一个没有生命的实体,只有处理器赋予程序生命时,它才能成为一个活动的

python并发编程之线程

一,什么是线程 如把进程比作一个运行的生产车间,那么线程就是这个车间的一条流水线.进程只是用来把资源集中到一起(进程只是一个资源单位或资源吧集合),而线程才是CPU上的执行单位 1,多线程(即多个控制线程)的概念,在一个进程中存在多个控制线程,多个控制线程共享该进程的地址空间,相当于一个车间内有多条流水线,都共用一个车间的资源. 2,进程与线程之间的关系 创建进程的开销远大于线程     进程之间是竞争关系,线程之间是协作关系 二,线程与进程之间的区别 1,线程共享创建它的进程的地址空间;进程有