Python并发编程之:多进程

一 multiprocessing模块介绍

python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程。Python提供了multiprocessing。
    multiprocessing模块用来开启子进程,并在子进程中执行我们定制的任务(比如函数),该模块与多线程模块threading的编程接口类似。

  multiprocessing模块的功能众多:支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Queue、Pipe、Lock等组件。

需要再次强调的一点是:与线程不同,进程没有任何共享状态,进程修改的数据,改动仅限于该进程内。

二 Process类的介绍

创建进程的类

Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)

强调:
1. 需要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号

 参数介绍:

1 group参数未使用,值始终为None
2
3 target表示调用对象,即子进程要执行的任务
4
5 args表示调用对象的位置参数元组,args=(1,2,‘egon‘,)
6
7 kwargs表示调用对象的字典,kwargs={‘name‘:‘egon‘,‘age‘:18}
8
9 name为子进程的名称

  方法介绍:

 1 p.start():启动进程,并调用该子进程中的p.run()
 2 p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法
 3
 4 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
 5 p.is_alive():如果p仍然运行,返回True
 6
 7 p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程  

    属性介绍:

1 p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
2
3 p.name:进程的名称
4
5 p.pid:进程的pid
6
7 p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
8
9 p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)

三 Process类的使用

注意:在windows中Process()必须放到# if __name__ == ‘__main__‘:下

Since Windows has no fork, the multiprocessing module starts a new Python process and imports the calling module.
If Process() gets called upon import, then this sets off an infinite succession of new processes (or until your machine runs out of resources).
This is the reason for hiding calls to Process() inside

if __name__ == "__main__"
since statements inside this if-statement will not get called upon import.
由于Windows没有fork,多处理模块启动一个新的Python进程并导入调用模块。
如果在导入时调用Process(),那么这将启动无限继承的新进程(或直到机器耗尽资源)。
这是隐藏对Process()内部调用的原,使用if __name__ == “__main __”,这个if语句中的语句将不会在导入时被调用。

详细解释

详细解释

3.1创建开启子进程的两种方式

from multiprocessing import Process
import time
def task(name):
    print(‘%s is runing‘ %(name))
    time.sleep(3)
    print(‘%s is done‘ % (name))

if __name__ == ‘__main__‘:
    p = Process(target=task,args=(‘太白金星‘,))
    # p = Process(target=task,kwargs={‘name‘:‘太白金星‘})  两种传参方式
    p.start()
    print(‘====主‘)

方式一

from multiprocessing import Process
import time
# 方式二:

class MyProcess(Process):
    def __init__(self,name):

        self.name = name
        super().__init__()

    def run(self):  # 必须定义一个run方法
        print(‘%s is runing‘ % (self.name))
        time.sleep(3)
        print(‘%s is done‘ % (self.name))

if __name__ == ‘__main__‘:
    p = MyProcess(‘太白金星‘)
    p.start()
    print(‘===主‘)

方式二

3.2验证进程之间的空间隔离

# 接下来我们验证一下进程之间的互相隔离。

# 在一个进程中
x = 1000
#
# def task():
#     global x
#     x = 2
#
# task()
# print(x)
# 在不同的进程中:
# from multiprocessing import Process
# import time
# x = 1000
#
# def task():
#     global x
#     x = 2
#
# if __name__ == ‘__main__‘:
#     p = Process(target=task)
#     p.start()
#     time.sleep(3)
#     print(x)

代码验证

3.3 进程对象的join方法

from multiprocessing import Process
import time

# 父进程等待子进程结束之后在执行
# 方法一 加sleep 不可取!

# def task(n):
#     time.sleep(3)
#     print(‘子进程结束....‘)
#
# if __name__ == ‘__main__‘:
#     p = Process(target=task,args=(‘太白金星‘,))
#     p.start()
#     time.sleep(5)
#     print(‘主进程开始运行....‘)
#
# 这样虽然达到了目的,
# 1,但是你在程序中故意加sleep极大影响程序的效率。
# 2,sleep(3)只是虚拟子进程运行的时间,子进程运行完毕的时间是不固定的。

# 方法二: join

# from multiprocessing import Process
# import time
#
#
# def task(n):
#     time.sleep(3)
#     print(‘子进程结束....‘)
#
#
# if __name__ == ‘__main__‘:
#     p = Process(target=task,args=(‘太白金星‘,))
#     p.start()
#     p.join()  # 等待p这个子进程运行结束之后,在执行下面的代码(主进程).
#     print(‘主进程开始运行....‘)
#
# 接下来我要开启十个子进程,先看看效果

# from multiprocessing import Process
# import time
#
# def task(n):
#     print(‘%s is running‘ %n)
#
# if __name__ == ‘__main__‘:
#     for i in range(1, 11):
#         p = Process(target=task,args=(i,))
#         p.start()
#         ‘‘‘
#         我这里是不是运行十个子进程之后,才会运行主进程?当然不会!!!
#         1,p.start()只是向操作系统发送一个请求而已,剩下的操作系统在内存开启进程空间,运行进程程序不一定是马上执行。
#         2,开启进程的开销是比较大的。
#         ‘‘‘
#     print(‘主进程开始运行....‘)

# 那么有人说,老师我对这个不理解,我给你拆解开来。

# from multiprocessing import Process
# import time
#
# def task(n):
#     print(‘%s is running‘ %n)
#
# if __name__ == ‘__main__‘:
#     p1 = Process(target=task,args=(1,))
#     p2 = Process(target=task,args=(2,))
#     p3 = Process(target=task,args=(3,))
#     p4 = Process(target=task,args=(4,))
#     p5 = Process(target=task,args=(5,))
#
#     p1.start()
#     p2.start()
#     p3.start()
#     p4.start()
#     p5.start()
#
#     print(‘主进程开始运行....‘)

# 接下来 实现起多子个进程,然后等待这些子进程都结束之后,在开启主进程。

# from multiprocessing import Process
# import time
#
# def task(n):
#     time.sleep(3)
#     print(‘%s is running‘ %n)
#
# if __name__ == ‘__main__‘:
#     start_time = time.time()
#     p1 = Process(target=task,args=(1,))
#     p2 = Process(target=task,args=(2,))
#     p3 = Process(target=task,args=(3,))
#     # 几乎同一个时刻发送三个请求
#     p1.start()
#     p2.start()
#     p3.start()
#     # 对着三个自己成使用三个join
#
#     p1.join()
#     p2.join()
#     p3.join()
#
#     print(time.time() - start_time,‘主进程开始运行....‘)
#     # 3s 多一点点这是来回切换的所用时间。

# 那么在进行举例:

# from multiprocessing import Process
# import time
#
# def task(n):
#     time.sleep(n)
#     print(‘%s is running‘ %n)
#
# if __name__ == ‘__main__‘:
#     start_time = time.time()
#     p1 = Process(target=task,args=(1,))
#     p2 = Process(target=task,args=(2,))
#     p3 = Process(target=task,args=(3,))
#     # 几乎同一个时刻发送三个请求
#     p1.start()
#     p2.start()
#     p3.start()
#     # 对着三个自己成使用三个join
#
#     p1.join()  # 1s
#     p2.join()  # 2s
#     p3.join()  # 3s
#
#     print(time.time() - start_time,‘主进程开始运行....‘)
    # 3s 多一点点这是来回切换的所用时间。

# 利用for循环精简上面的示例:

# from multiprocessing import Process
# import time
#
# def task(n):
#     time.sleep(1)
#     print(‘%s is running‘ %n)
#
# if __name__ == ‘__main__‘:
#     start_time = time.time()
#     # for i in range(1,4):
#     #     p = Process(target=task,args=(i,))
#     #     p.start()
#     #     p.join()
#
#     p1 = Process(target=task,args=(1,))
#     p2 = Process(target=task,args=(2,))
#     p3 = Process(target=task,args=(3,))
#     # 几乎同一个时刻发送三个请求
#     p1.start()
#     p1.join()
#     p2.start()
#     p2.join()
#     p3.start()
#     p3.join()
#     # 上面的代码,p1.join()他的作用:你的主进程代码必须等我的p1子进程执行完毕之后,在执行
#     # p2.start()这个命令是主进程的代码。
#     # 而 如果你这样写:
#     ‘‘‘
#     p1.join()
#     p2.join()
#     p3.join()
#     ‘‘‘
#
#     print(time.time() - start_time,‘主进程开始运行....‘)

# 所以你上面的代码应该怎么写?

# from multiprocessing import Process
# import time
#
# def task(n):
#     time.sleep(3)
#     print(‘%s is running‘ %n)
#
# if __name__ == ‘__main__‘:
#     p_l = []
#     start_time = time.time()
#     for i in range(1,4):
#         p = Process(target=task,args=(i,))
#         p.start()
#         p_l.append(p)
#     # 对着三个自己成使用三个join
#     for i in p_l:
#         i.join()
#     print(time.time() - start_time,‘主进程开始运行....‘)

代码实例

3.4 进程对象的其他属性(了解)

# from multiprocessing import Process
# import time
# import os
#
# def task(n):
#     time.sleep(3)
#     print(‘%s is running‘ %n,os.getpid(),os.getppid())
#
# if __name__ == ‘__main__‘:
#     p1 = Process(target=task,args=(1,),name = ‘任务1‘)
#     # print(p1.name) # 给子进程起名字
#     # for i in range(3):
#     #     p = Process(target=task, args=(1,))
#     #     print(p.name)  # 给子进程起名字
#     p1.start()
#     # p1.terminate()
#     # time.sleep(2)  # 睡一会,他就将我的子进程杀死了。
#     # print(p1.is_alive())  # False
#     print(p1.pid)
#     # print(‘主‘)
#     print(os.getpid())

代码示例

3.5 僵尸进程与孤儿进程

参考博客:http://www.cnblogs.com/Anker/p/3271773.html

一:僵尸进程(有害)
  僵尸进程:一个进程使用fork创建子进程,如果子进程退出,而父进程并没有调用wait或waitpid获取子进程的状态信息,那么子进程的进程描述符仍然保存在系统中。这种进程称之为僵死进程。详解如下

我们知道在unix/linux中,正常情况下子进程是通过父进程创建的,子进程在创建新的进程。子进程的结束和父进程的运行是一个异步过程,即父进程永远无法预测子进程到底什么时候结束,如果子进程一结束就立刻回收其全部资源,那么在父进程内将无法获取子进程的状态信息。

因此,UNⅨ提供了一种机制可以保证父进程可以在任意时刻获取子进程结束时的状态信息:
1、在每个进程退出的时候,内核释放该进程所有的资源,包括打开的文件,占用的内存等。但是仍然为其保留一定的信息(包括进程号the process ID,退出状态the termination status of the process,运行时间the amount of CPU time taken by the process等)
2、直到父进程通过wait / waitpid来取时才释放. 但这样就导致了问题,如果进程不调用wait / waitpid的话,那么保留的那段信息就不会释放,其进程号就会一直被占用,但是系统所能使用的进程号是有限的,如果大量的产生僵死进程,将因为没有可用的进程号而导致系统不能产生新的进程. 此即为僵尸进程的危害,应当避免。

  任何一个子进程(init除外)在exit()之后,并非马上就消失掉,而是留下一个称为僵尸进程(Zombie)的数据结构,等待父进程处理。这是每个子进程在结束时都要经过的阶段。如果子进程在exit()之后,父进程没有来得及处理,这时用ps命令就能看到子进程的状态是“Z”。如果父进程能及时 处理,可能用ps命令就来不及看到子进程的僵尸状态,但这并不等于子进程不经过僵尸状态。  如果父进程在子进程结束之前退出,则子进程将由init接管。init将会以父进程的身份对僵尸状态的子进程进行处理。

二:孤儿进程(无害)

  孤儿进程:一个父进程退出,而它的一个或多个子进程还在运行,那么那些子进程将成为孤儿进程。孤儿进程将被init进程(进程号为1)所收养,并由init进程对它们完成状态收集工作。

  孤儿进程是没有父进程的进程,孤儿进程这个重任就落到了init进程身上,init进程就好像是一个民政局,专门负责处理孤儿进程的善后工作。每当出现一个孤儿进程的时候,内核就把孤 儿进程的父进程设置为init,而init进程会循环地wait()它的已经退出的子进程。这样,当一个孤儿进程凄凉地结束了其生命周期的时候,init进程就会代表党和政府出面处理它的一切善后工作。因此孤儿进程并不会有什么危害。

我们来测试一下(创建完子进程后,主进程所在的这个脚本就退出了,当父进程先于子进程结束时,子进程会被init收养,成为孤儿进程,而非僵尸进程),文件内容

import os
import sys
import time

pid = os.getpid()
ppid = os.getppid()
print ‘im father‘, ‘pid‘, pid, ‘ppid‘, ppid
pid = os.fork()
#执行pid=os.fork()则会生成一个子进程
#返回值pid有两种值:
#    如果返回的pid值为0,表示在子进程当中
#    如果返回的pid值>0,表示在父进程当中
if pid > 0:
    print ‘father died..‘
    sys.exit(0)

# 保证主线程退出完毕
time.sleep(1)
print ‘im child‘, os.getpid(), os.getppid()

执行文件,输出结果:
im father pid 32515 ppid 32015
father died..
im child 32516 1

看,子进程已经被pid为1的init进程接收了,所以僵尸进程在这种情况下是不存在的,存在只有孤儿进程而已,孤儿进程声明周期结束自然会被init来销毁。

三:僵尸进程危害场景:

  例如有个进程,它定期的产 生一个子进程,这个子进程需要做的事情很少,做完它该做的事情之后就退出了,因此这个子进程的生命周期很短,但是,父进程只管生成新的子进程,至于子进程 退出之后的事情,则一概不闻不问,这样,系统运行上一段时间之后,系统中就会存在很多的僵死进程,倘若用ps命令查看的话,就会看到很多状态为Z的进程。 严格地来说,僵死进程并不是问题的根源,罪魁祸首是产生出大量僵死进程的那个父进程。因此,当我们寻求如何消灭系统中大量的僵死进程时,答案就是把产生大 量僵死进程的那个元凶枪毙掉(也就是通过kill发送SIGTERM或者SIGKILL信号啦)。枪毙了元凶进程之后,它产生的僵死进程就变成了孤儿进 程,这些孤儿进程会被init进程接管,init进程会wait()这些孤儿进程,释放它们占用的系统进程表中的资源,这样,这些已经僵死的孤儿进程 就能瞑目而去了。

四:测试
#1、产生僵尸进程的程序test.py内容如下

#coding:utf-8
from multiprocessing import Process
import time,os

def run():
    print(‘子‘,os.getpid())

if __name__ == ‘__main__‘:
    p=Process(target=run)
    p.start()

    print(‘主‘,os.getpid())
    time.sleep(1000)

#2、在unix或linux系统上执行
[root@vm172-31-0-19 ~]# python3  test.py &
[1] 18652
[root@vm172-31-0-19 ~]# 主 18652
子 18653

[root@vm172-31-0-19 ~]# ps aux |grep Z
USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
root     18653  0.0  0.0      0     0 pts/0    Z    20:02   0:00 [python3] <defunct> #出现僵尸进程
root     18656  0.0  0.0 112648   952 pts/0    S+   20:02   0:00 grep --color=auto Z

[root@vm172-31-0-19 ~]# top #执行top命令发现1zombie
top - 20:03:42 up 31 min,  3 users,  load average: 0.01, 0.06, 0.12
Tasks:  93 total,   2 running,  90 sleeping,   0 stopped,   1 zombie
%Cpu(s):  0.0 us,  0.3 sy,  0.0 ni, 99.7 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem :  1016884 total,    97184 free,    70848 used,   848852 buff/cache
KiB Swap:        0 total,        0 free,        0 used.   782540 avail Mem 

  PID USER      PR  NI    VIRT    RES    SHR S %CPU %MEM     TIME+ COMMAND
root      20   0   29788   1256    988 S  0.3  0.1   0:01.50 elfin                                                                                                                      

#3、
等待父进程正常结束后会调用wait/waitpid去回收僵尸进程
但如果父进程是一个死循环,永远不会结束,那么该僵尸进程就会一直存在,僵尸进程过多,就是有害的
解决方法一:杀死父进程
解决方法二:对开启的子进程应该记得使用join,join会回收僵尸进程
参考python2源码注释
class Process(object):
    def join(self, timeout=None):
        ‘‘‘
        Wait until child process terminates
        ‘‘‘
        assert self._parent_pid == os.getpid(), ‘can only join a child process‘
        assert self._popen is not None, ‘can only join a started process‘
        res = self._popen.wait(timeout)
        if res is not None:
            _current_process._children.discard(self)

join方法中调用了wait,告诉系统释放僵尸进程。discard为从自己的children中剔除

解决方法三:http://blog.csdn.net/u010571844/article/details/50419798

详细了解

详细了解

四 守护进程

主进程创建守护进程

  其一:守护进程会在主进程代码执行结束后就终止

  其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children

注意:进程之间是互相独立的,主进程代码运行结束,守护进程随即终止

from multiprocessing import Process
import time
import random

class Piao(Process):
    def __init__(self,name):
        self.name=name
        super().__init__()
    def run(self):
        print(‘%s is piaoing‘ %self.name)
        time.sleep(random.randrange(1,3))
        print(‘%s is piao end‘ %self.name)

p=Piao(‘egon‘)
p.daemon=True #一定要在p.start()前设置,设置p为守护进程,禁止p创建子进程,并且父进程代码执行结束,p即终止运行
p.start()
print(‘主‘)

代码示例

#主进程代码运行完毕,守护进程就会结束
from multiprocessing import Process
from threading import Thread
import time
def foo():
    print(123)
    time.sleep(1)
    print("end123")

def bar():
    print(456)
    time.sleep(3)
    print("end456")

p1=Process(target=foo)
p2=Process(target=bar)

p1.daemon=True
p1.start()
p2.start()
print("main-------") #打印该行则主进程代码结束,则守护进程p1应该被终止,可能会有p1任务执行的打印信息123,因为主进程打印main----时,p1也执行了,但是随即被终止

经典例题

五 进程同步(锁)

进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,

而共享带来的是竞争,竞争带来的结果就是错乱,如何控制,就是加锁处理

#并发运行,效率高,但竞争同一打印终端,带来了打印错乱
from multiprocessing import Process
import os,time
def work():
    print(‘%s is running‘ %os.getpid())
    time.sleep(2)
    print(‘%s is done‘ %os.getpid())

if __name__ == ‘__main__‘:
    for i in range(3):
        p=Process(target=work)
        p.start()

并发运行,效率高,但竞争同一打印终端,带来了打印错乱

不加锁,效率高但是顺序容易错乱

#由并发变成了串行,牺牲了运行效率,但避免了竞争
from multiprocessing import Process,Lock
import os,time
def work(lock):
    lock.acquire()
    print(‘%s is running‘ %os.getpid())
    time.sleep(2)
    print(‘%s is done‘ %os.getpid())
    lock.release()
if __name__ == ‘__main__‘:
    lock=Lock()
    for i in range(3):
        p=Process(target=work,args=(lock,))
        p.start()

加锁:由并发变成了串行,牺牲了运行效率,但避免了竞争

加锁处理,牺牲了效率,但是保证了顺序

上面这种情况虽然使用加锁的形式实现了顺序的执行,但是程序又重新变成串行了,这样确实会浪费了时间,却保证了数据的安全。

接下来,我们以模拟抢票为例,来看看数据安全的重要性。

#文件db的内容为:{"count":1}
#注意一定要用双引号,不然json无法识别
#并发运行,效率高,但竞争写同一文件,数据写入错乱
from multiprocessing import Process,Lock
import time,json,random
def search():
    dic=json.load(open(‘db‘))
    print(‘\033[43m剩余票数%s\033[0m‘ %dic[‘count‘])

def get():
    dic=json.load(open(‘db‘))
    time.sleep(0.1) #模拟读数据的网络延迟
    if dic[‘count‘] >0:
        dic[‘count‘]-=1
        time.sleep(0.2) #模拟写数据的网络延迟
        json.dump(dic,open(‘db‘,‘w‘))
        print(‘\033[43m购票成功\033[0m‘)

def task():
    search()
    get()

if __name__ == ‘__main__‘:
    for i in range(100): #模拟并发100个客户端抢票
        p=Process(target=task)
        p.start()

多进程同时抢购余票

多进程抢票

#文件db的内容为:{"count":5}
#注意一定要用双引号,不然json无法识别
#并发运行,效率高,但竞争写同一文件,数据写入错乱
from multiprocessing import Process,Lock
import time,json,random
def search():
    dic=json.load(open(‘db‘))
    print(‘\033[43m剩余票数%s\033[0m‘ %dic[‘count‘])

def get():
    dic=json.load(open(‘db‘))
    time.sleep(random.random()) #模拟读数据的网络延迟
    if dic[‘count‘] >0:
        dic[‘count‘]-=1
        time.sleep(random.random()) #模拟写数据的网络延迟
        json.dump(dic,open(‘db‘,‘w‘))
        print(‘\033[32m购票成功\033[0m‘)
    else:
        print(‘\033[31m购票失败\033[0m‘)

def task(lock):
    search()
    lock.acquire()
    get()
    lock.release()

if __name__ == ‘__main__‘:
    lock = Lock()
    for i in range(100): #模拟并发100个客户端抢票
        p=Process(target=task,args=(lock,))
        p.start()

使用锁来保证数据安全

使用锁保证数据安全

#加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。
虽然可以用文件共享数据实现进程间通信,但问题是:
1.效率低(共享数据基于文件,而文件是硬盘上的数据)
2.需要自己加锁处理

#因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。
队列和管道都是将数据存放于内存中
队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,
我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。

原文地址:https://www.cnblogs.com/Big-Dinosaur/p/10496386.html

时间: 2024-11-05 16:26:16

Python并发编程之:多进程的相关文章

python并发编程之IO模型,

了解新知识之前需要知道的一些知识 同步(synchronous):一个进程在执行某个任务时,另外一个进程必须等待其执行完毕,才能继续执行 #所谓同步,就是在发出一个功能调用时,在没有得到结果之前,该调用就不会返回.按照这个定义,其实绝大多数函数都是同步调用.但是一般而言,我们在说同步.异步的时候,特指那些需要其他部件协作或者需要一定时间完成的任务. #举例: #1. multiprocessing.Pool下的apply #发起同步调用后,就在原地等着任务结束,根本不考虑任务是在计算还是在io阻

python并发编程之IO模型

了解新知识之前需要知道的一些知识 同步(synchronous):一个进程在执行某个任务时,另外一个进程必须等待其执行完毕,才能继续执行 #所谓同步,就是在发出一个功能调用时,在没有得到结果之前,该调用就不会返回.按照这个定义,其实绝大多数函数都是同步调用.但是一般而言,我们在说同步.异步的时候,特指那些需要其他部件协作或者需要一定时间完成的任务. #举例: #1. multiprocessing.Pool下的apply #发起同步调用后,就在原地等着任务结束,根本不考虑任务是在计算还是在io阻

Python学习【第26篇】:并发编程之IO模型

python并发编程之IO模型, 了解新知识之前需要知道的一些知识 同步(synchronous):一个进程在执行某个任务时,另外一个进程必须等待其执行完毕,才能继续执行 #所谓同步,就是在发出一个功能调用时,在没有得到结果之前,该调用就不会返回.按照这个定义,其实绝大多数函数都是同步调用.但是一般而言,我们在说同步.异步的时候,特指那些需要其他部件协作或者需要一定时间完成的任务. #举例: #1. multiprocessing.Pool下的apply #发起同步调用后,就在原地等着任务结束,

python并发编程之多进程

python并发编程之多进程 一.什么是进程 进程:正在进行的一个过程或者一个任务,执行任务的是CPU. 原理:单核加多道技术 二.进程与程序的区别 进程是指程序的运行过程 需要强调的是:同一个程序执行两次是两个进程,比如打开暴风影音,虽然都是同一个软件,但是一个可以播放苍井空,另一个可以播放武藤兰. 三.并发与并行 无论是并行还是并发,在用户看来都是'同时'运行的,不管是进程还是线程,都只是一个任务而已,真是干活的是cpu,cpu来做这些任务,而一个cpu同一时刻只能执行一个任务. (1)并发

java并发编程之Master-Worker模式

Master-Worker模式适合在一个任务可以拆分成多个小任务来进行的情况下使用. package cn.fcl.masterworker; import java.util.HashMap; import java.util.Map; import java.util.Queue; import java.util.concurrent.ConcurrentHashMap; import java.util.concurrent.ConcurrentLinkedQueue; public c

Java并发编程之volatile的理解

Java并发编程之volatile关键字的理解 Java中每个线程都有自己的工作内存,类比于处理器的缓存,线程的工作内存中保存了被该线程使用到的变量的主内存的拷贝.线程读写变量都是直接在自己的工作内存中进行的,而何时刷新数据(指将修改的结果更新到主存或者把主存的变量读取覆盖掉工作内存中的值)是不确定的. volatile关键字是修饰字段的关键字,貌似是JDK1.5之后才有的,在多线程编程中,很大的几率会用到这个关键字,volatile修饰变量后该变量有这么一种效果:线程每一次读该变量都是直接从主

java并发编程之future模式

1.当你想并发去执行一段代码,但是还想获取这段代码的返回结果,那么future多线程模式就可以派上用场了,代码实现如下. public class Client { public Data request() { final FutureData futureData = new FutureData(); new Thread(new Runnable() { @Override public void run() { futureData.setRealData(new RealData()

Java并发编程之ConcurrentHashMap

ConcurrentHashMap ConcurrentHashMap是一个线程安全的Hash Table,它的主要功能是提供了一组和HashTable功能相同但是线程安全的方法.ConcurrentHashMap可以做到读取数据不加锁,并且其内部的结构可以让其在进行写操作的时候能够将锁的粒度保持地尽量地小,不用对整个ConcurrentHashMap加锁. ConcurrentHashMap的内部结构 ConcurrentHashMap为了提高本身的并发能力,在内部采用了一个叫做Segment

java并发编程之Guarded Suspention

当客户端请求速度远远大于服务端的处理速度,这时候就非常适合使用Guarded Suspention模式 package cn.fcl.guardendSuspension; import java.util.ArrayList; import java.util.List; public class RequestQueue { private List<Integer> integers = new ArrayList<Integer>(); public synchronize