【Python下进程同步之互斥锁、信号量、事件机制】 𪕽

原文: http://blog.gqylpy.com/gqy/229

"

一、锁机制:??multiprocess.Lock

上篇博客中,我们千方百计实现了程序的异步,让多个任务同时在几个进程中并发处理,但它们之间的运行没有顺序。尽管并发编程让我们能更加充分的利用io资源,但是也给我我们带来了新问题,多个进程使用同一份数据资源的时候,就会引发数据安全或顺序混乱问题. 例:


  1. # 多进程抢占输出资源
  2. from multiprocessing import Process
  3. from os import getpid
  4. from time import sleep
  5. from random import random
  6. def work(i):
  7. print("%s: %s is running" %(i, getpid()))
  8. sleep(random())
  9. print("%s: %s is done" %(i, getpid()))
  10. if __name__ == ‘__main__‘:
  11. for i in range(5):
  12. p = Process(target=work, args=(i,))
  13. p.start()

使用互斥锁维护执行顺序:


  1. # 使用锁机制维护执行顺序
  2. from multiprocessing import Process, Lock
  3. from os import getpid
  4. from time import sleep
  5. from random import random
  6. def work(lock, i):
  7. lock.acquire() # ??开锁进门
  8. print("%s: %s is running" %(i, getpid()))
  9. sleep(random())
  10. print("%s: %s is done" %(i, getpid()))
  11. lock.release() # ??出门,归还钥匙
  12. if __name__ == ‘__main__‘:
  13. lock = Lock() # ??实例化一把锁,一把钥匙
  14. for i in range(5):
  15. p = Process(target=work, args=(lock, i))
  16. p.start()

上面这种情况虽然使用加锁的形式实现了顺序的执行,却使得进程变成了串行执行,这样确实会浪费些时间,但是保证了数据的安全.

接下来我们以模拟抢票为例,来看看数据安全的重要性:


  1. # 文件db的内容为:{"count": 1} (注意:"count"一定要用双引号,否者json无法识别)
  2. # 并发运行,效率高,但是:竞争抢票只读写同一个文件,造成数据写入错乱
  3. from multiprocessing import Process
  4. from time import sleep
  5. from json import load, dump
  6. def search():
  7. dct = load(open(‘db‘))
  8. print("\033[43m剩余票数:%s\033[0m" %dct[‘count‘])
  9. def get():
  10. dct = load(open(‘db‘))
  11. sleep(0.01) # 模拟读数据的网络延迟
  12. if dct[‘count‘] > 0:
  13. dct[‘count‘] -=1
  14. sleep(0.02) # 模拟写数据的网络延迟
  15. dump(dct, open(‘db‘, ‘w‘))
  16. print("\033[32m购票成功\033[0m")
  17. def tack():
  18. search()
  19. get()
  20. if __name__ == ‘__main__‘:
  21. for i in range(100): # 模拟并发100个客户端抢票
  22. p =Process(target=tack)
  23. p.start()
  24. # 100个进程同时读写同一个文件,可能会报错

使用锁机制保护数据安全:


  1. # 文件db的内容为:{"count": 1} (注意:"count"一定要用双引号,否者json无法识别)
  2. # 同步运行,效率低,但是可以保证数据安全
  3. from multiprocessing import Process, Lock
  4. from time import sleep
  5. from json import load, dump
  6. def search():
  7. dct = load(open(‘db‘))
  8. print("\033[43m剩余票数:%s\033[0m" %dct[‘count‘])
  9. def get():
  10. dct = load(open(‘db‘))
  11. sleep(0.01) # 模拟读数据的网络延迟
  12. if dct[‘count‘] > 0:
  13. dct[‘count‘] -=1
  14. sleep(0.02) # 模拟写数据的网络延迟
  15. dump(dct, open(‘db‘, ‘w‘))
  16. print("\033[32m购票成功\033[0m")
  17. def tack():
  18. search()
  19. lock.acquire() # 上锁
  20. get()
  21. lock.release() # 释放
  22. if __name__ == ‘__main__‘:
  23. lock = Lock() # 实例化一把锁
  24. for i in range(100): # 模拟并发100个客户端抢票
  25. p =Process(target=tack)
  26. p.start()
  27. # 可能会遇到json.decoder.JSONDecodeError报错

使用锁机制可以保证多个进程想要修改同一块数据时,在同一时间点只能有一个进程进行修改,即串行的修改,牺牲速度而保证安全性.

虽然可以用文件共享数据实现进程间通讯,但问题是:1. 效率低(共享数据基于文件,而文件是硬盘上的数据);2. 需要自己加锁处理。因此我们最好找寻一种解决方案能够兼顾:1. 效率高(多个进程共享一块内存的数据);2. 帮我们处理好锁的问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道

队列和管道都是将数据存放于内存中,而队列又是基于(管道+锁)实现的,可以让我们从复杂的问题中解脱出来,我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可扩展性.


二、信号量:multiprocessing.Semaphore

1. 信号量Semaphore允许一定数量的线程在同一时间点更改同一块数据,很形象的例子:厕所里有3个坑,同时可以3个人蹲,如果来了第4个人就要在外面等待,直到某个人出来了才能进去.

2.信号量同步基于内部计数器,每调用一次acquire(),计数器-1,每调用一次release(),计数器+1,当计数器为0时,acquire()调用被阻塞。这是迪克斯彻(Dijkstra)信号量概念P()和V()的Python实现,信号同步机制适用于访问像服务器这样的有限资源.

3.注意:信号量与进程池的概念很像,要注意区分,信号量涉及到加锁的概念.

  • 方法

obj = Semaphore(4):实例化一把锁,4把钥匙,钥匙可以指定(最小0,最大未知)

obj.acquire():加锁,锁住下方的语句,直到遇到obj.release()方可解锁

obj.release():释放,释放obj.acquire()和obj.release()的语句数据,此方法如果写在加锁之前,便多了一把钥匙

  • 基本用法

  1. # 一把锁,多把钥匙
  2. from multiprocessing import Semaphore
  3. s = Semaphore(2) # 实例化一把锁,配2把钥匙
  4. s.release() # 可以先释放钥匙,变成3把钥匙
  5. s.release() # 再释放一把钥匙,现在变成了4把钥匙
  6. s.acquire()
  7. print(1)
  8. s.acquire()
  9. print(2)
  10. # 加上先释放的钥匙,我门总共有4把钥匙
  11. s.acquire() # 顺利执行
  12. print(3)
  13. s.acquire() # 顺利执行
  14. print(4)
  15. # 钥匙全部被占用
  16. s.acquire() # 此处阻塞住,等待钥匙的释放
  17. print(5) # 不会被打印
  • 进阶:小黑屋

  1. # 小黑屋
  2. from multiprocessing import Process, Semaphore
  3. from time import sleep
  4. from random import uniform
  5. def func(sem, i):
  6. sem.acquire()
  7. print("第%s个人进入了小黑屋" % i)
  8. sleep(uniform(1, 3))
  9. print("第%s个人走出了小黑屋" % i)
  10. sem.release()
  11. if __name__ == ‘__main__‘:
  12. sem = Semaphore(5) # 初始化一把锁,配5把钥匙
  13. for i in range(10): # 启动10个子进程,最多只能5个人同在小黑屋中
  14. p = Process(target=func, args=(sem, i))
  15. p.start()

三、事件机制:multiprocessing.Event

Python线程的事件用于主线程控制其它线程的执行,事件主要提供了三个方法:set、wait,clear

事件处理机制:全局定义了一个“Flag”,如果“Flag”值为False,程序执行wait()方法会被阻塞;如果“Flag”值为True,程序执行wait()方法便不会被阻塞.

  • 方法

obj.is_set():默认值为False,事件是通过此方法的bool值去标示wait()的阻塞状态

obj.set():将is_set()的bool值改为True

obj.clear():将is_set()的bool值改为False

obj.wait():is_set()的值为False时阻塞,否则不阻塞

  • 实例:模拟红绿灯

  1. # 模拟红绿灯
  2. from multiprocessing import Process, Event
  3. import time
  4. import random
  5. def Tra(e):
  6. print("\033[32m绿灯亮\033[0m")
  7. e.set()
  8. while 1:
  9. if e.is_set():
  10. time.sleep(3)
  11. print("\033[31m红灯亮\033[0m")
  12. e.clear()
  13. else:
  14. time.sleep(3)
  15. print("\033[32m绿灯亮\033[0m")
  16. e.set()
  17. def Car(e, i):
  18. e.wait()
  19. print("第%s辆小汽车过去了" % i)
  20. if __name__ == ‘__main__‘:
  21. e = Event()
  22. tra = Process(target=Tra, args=(e,))
  23. tra.start()
  24. for i in range(100): # 模拟一百辆小汽车
  25. time.sleep(0.5)
  26. car = Process(target=Car, args=(e, i))
  27. car.start()
        </div>

"

原文: http://blog.gqylpy.com/gqy/229

原文地址:https://www.cnblogs.com/bbb001/p/11374998.html

时间: 2024-11-05 21:51:18

【Python下进程同步之互斥锁、信号量、事件机制】 𪕽的相关文章

【Python下进程同步之互斥锁、信号量、事件机制】 -- 2019-08-16 17:58:28

原文: http://blog.gqylpy.com/gqy/229 " 一.锁机制:??multiprocess.Lock 上篇博客中,我们千方百计实现了程序的异步,让多个任务同时在几个进程中并发处理,但它们之间的运行没有顺序.尽管并发编程让我们能更加充分的利用io资源,但是也给我我们带来了新问题,多个进程使用同一份数据资源的时候,就会引发数据安全或顺序混乱问题. 例: # 多进程抢占输出资源 from multiprocessing import Process from os import

死锁现象与解决方案,开启线程的2种方式,守护线程,线程VS进程,线程互斥锁,信号量

死锁现象与解决方案 from threading import Thread,Lock,active_count import time mutexA=Lock() # 锁1 mutexB=Lock() # 锁2 class Mythread(Thread): def run(self): self.f1() self.f2() def f1(self): mutexA.acquire() print('%s 拿到A锁' %self.name) mutexB.acquire() print('%

喜羊羊系列之【 线程 】互斥锁+信号量

1. 编写一个基本的多线程程序(主线程里面创建一个子线程) /************************************************************************* > File Name: 1_homework.c > Author: 梁惠涌 > Addr: > Created Time: 2015年04月22日 星期三 15时22分34秒 ************************************************

python 并发编程 锁 / 信号量 / 事件 / 队列(进程间通信(IPC)) /生产者消费者模式

(1)锁:进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,而共享带来的是竞争,竞争带来的结果就是错乱,如何控制,就是加锁处理. 虽然使用加锁的形式实现了顺序的执行,但是程序又重新变成串行了,这样确实会浪费了时间,却保证了数据的安全. (Lock) import json from multiprocessing import Process,Lock ###### 锁 ###### import time import random def get

互斥锁的实现

http://blog.csdn.net/hzhzh007/article/details/6532988 “ 信号量用在多线程多任务同步的,一个线程完成了某一个动作就通过信号量告诉别的线程,别的线程再进行某些动作(大家都在sem_wait的时候,就阻塞在 那里).而互斥锁是用在多线程多任务互斥的,一个线程占用了某一个资源,那么别的线程就无法访问,直到这个线程unlock,其他的线程才开始可以利用这 个资源.比如对全局变量的访问,有时要加锁,操作完了,在解锁.有的时候锁和信号量会同时使用的” 也

自旋锁与互斥锁之抉择

自旋锁和互斥锁是多线程编程中的两个重要概念.他们都能用来锁定一些共享资源,以阻止影响数据一致性的并发访问.但是他们之间确实存在区别,那么这些区别是什么? 1    理论 理论上,当一个线程试图获取一个被锁定的互斥锁时,该操作会失败然后该线程会进入睡眠,这样就能马上让另一个线程运行.当持有互斥锁的线程释放该锁之后,进入睡眠状态的线程就会被唤醒.但是,当一个线程试图获取一个自旋锁而没有成功时,该线程会不断地重试,直到最终成功为止:因此该线程不会将运行权交到其他线程手中(当然,一旦当前线程的时间片超时

Python之路(第三十八篇) 并发编程:进程同步锁/互斥锁、信号量、事件、队列、生产者消费者模型

一.进程锁(同步锁/互斥锁) 进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的, 而共享带来的是竞争,竞争带来的结果就是错乱,如何控制,就是加锁处理. 例子 #并发运行,效率高,但竞争同一打印终端,带来了打印错乱 from multiprocessing import Process import os,time def work(): print('%s is running' %os.getpid()) time.sleep(2) print('

041.Python守护进程,锁信号量和事件

一 守护进程 1.1 基本概念 守护进程 正常情况下,主进程默认等待子进程调用结束之后结束 守护进程在主进程执行代码结束后,自动终止 守护进程语法: 进程对象.daemon = True ,设置该进程是守护进程 守护进程需要在start()方法之前设置 为主进程守护,主进程如果代码执行结束了,该守护进程自动结束. 1.2 基本语法 import os import time from multiprocessing import Process def func(): print("子进程sta

Python进阶(3)_进程与线程中的lock(互斥锁、递归锁、信号量)

1.同步锁 (Lock) 当各个线程需要访问一个公共资源时,会出现数据紊乱 例如: 1 import threading,time 2 def sub(): 3 global num #对全局变量进行操作 4 5 temp=num 6 time.sleep(0.001) #模拟线程执行中出现I/o延迟等 7 num=temp-1 #所有线程对全局变量进行减一 8 9 time.sleep(1) 10 11 num=100 12 l=[] 13 14 for i in range(100): 15