python第八章:多任务--小白博客

多线程threading

多线程特点:

#线程的并发是利用cpu上下文的切换(是并发,不是并行)#多线程执行的顺序是无序的#多线程共享全局变量#线程是继承在进程里的,没有进程就没有线程#GIL全局解释器锁#只要在进行耗时的IO操作的时候,能释放GIL,所以只要在IO密集型的代码里,用多线程就很合适
# 无序的,并发的
def test1(n):
    time.sleep(1)
    print(‘task‘, n)

for i in range(10):
    t = threading.Thread(target=test1,args=(‘t-%s‘ % i,))
    t.start()
#计算并发所用的时间
import threading
import time

def test1(n):
    time.sleep(1)
    print(‘task‘, n)

def test2(n):
    time.sleep(1)
    print(‘task‘, n)

start = time.time()
l = []
t1 = threading.Thread(target=test1, args=(1,))
t2 = threading.Thread(target=test1, args=(2,))
t1.start()
t2.start()
l.append(t1)
l.append(t2)
for i in l:
    i.join()
end = time.time()
print(end - start)

GIL的全称是:Global Interpreter Lock,意思就是全局解释器锁,这个GIL并不是python的特性,他是只在Cpython解释器里引入的一个概念,而在其他的语言编写的解释器里就没有这个GIL例如:Jython,Pypy

为什么会有gil?:

随着电脑多核cpu的出现核cpu频率的提升,为了充分利用多核处理器,进行多线程的编程方式更为普及,随之而来的困难是线程之间数据的一致性和状态同步,而python也利用了多核,所以也逃不开这个困难,为了解决这个数据不能同步的问题,设计了gil全局解释器锁。

说到gil解释器锁,我们容易想到在多线程中共享全局变量的时候会有线程对全局变量进行的资源竞争,会对全局变量的修改产生不是我们想要的结果,而那个时候我们用到的是python中线程模块里面的互斥锁,哪样的话每次对全局变量进行操作的时候,只有一个线程能够拿到这个全局变量;看下面的代码:

import threading
global_num = 0

def test1():
    global global_num
    for i in range(1000000):
        global_num += 1

    print("test1", global_num)

def test2():
    global global_num
    for i in range(1000000):
        global_num += 1

    print("test2", global_num)

t1 = threading.Thread(target=test1)
t2 = threading.Thread(target=test2)
t1.start()
t2.start()
在上面的例子里,我们创建了两个线程来争夺对global_num的加一操作,但是结果并非我们想要的,所以我们在这里加入了互斥锁

import threading
import time
global_num = 0

lock = threading.Lock()

def test1():
    global global_num
    lock.acquire()
    for i in range(1000000):
        global_num += 1
    lock.release()
    print("test1", global_num)

def test2():
    global global_num
    lock.acquire()
    for i in range(1000000):
        global_num += 1
    lock.release()
    print("test2", global_num)

t1 = threading.Thread(target=test1)
t2 = threading.Thread(target=test2)
start_time = time.time()

t1.start()
t2.start()

多进程multiprocessing

#一个程序运行起来之后,代码+用到的资源称之为进程,它是操作系统分配资源的基本单位,不仅可以通过线程完成多任务,进程也是可以的
#进程之间是相互独立的
#cpu密集的时候适合用多进程

#进程之间不共享
import multiprocessing
from multiprocessing import Pool
import time
import threading
g_num = 0
def edit():
    global g_num
    for i in range(10):
        g_num += 1

def reader():
    print(g_num)

if __name__ == ‘__main__‘:
    p1 = multiprocessing.Process(target=edit)
    p2 = multiprocessing.Process(target=reader())
    p1.start()
    p2.start()
    p1.join()
    p2.join()
#多进程并发
import multiprocessing
from multiprocessing import Pool
import time
def test1():
    for i in range(10):
        time.sleep(1)
        print(‘test‘, i)

def test2():
    for i in range(10):
        time.sleep(1)
        print(‘test‘, i)

if __name__ == ‘__main__‘:
    p1 = multiprocessing.Process(target=test1)
    p2 = multiprocessing.Process(target=test2)
    p1.start()
    p2.start()
#进程池
import multiprocessing
from multiprocessing import Pool
import time
import threading
g_num = 0
def test1(n):
    for i in range(n):
        time.sleep(1)
        print(‘test1‘, i)

def test2(n):
    for i in range(n):
        time.sleep(1)
        print(‘test2‘, i)
def test3(n):
    for i in range(n):
        time.sleep(1)
        print(‘test3‘, i)

def test4(n):
    for i in range(n):
        time.sleep(1)
        print(‘test4‘, i)

if __name__ == ‘__main__‘:
    pool = Pool(3)#把进程声明出来括号里不写东西说明无限制,如果写数字,就是最大的进程数
    pool.apply_async(test1,(10,))#用pool去调用函数test1,参数为10格式为(10,)
    pool.apply_async(test2,(10,))#用pool去调用函数test2,参数为10格式为(10,)
    pool.apply_async(test3,(10,))#用pool去调用函数test3,参数为10格式为(10,)
    pool.apply_async(test4,(10,))#用pool去调用函数test4,参数为10格式为(10,)
    pool.close()#close必须在join的前面
    pool.join()

协程并发(gevent)

# 异步IO# 进程是资源分配的单位
# 线程是操作系统调度的单位
# 进程切换需要的资源最大,效率低
# 线程切换需要的资源一般,效率一般
# 协程切换任务资源很小,效率高
# 多进程、多线程根据cpu核数不一样可能是并行的,但是协成在一个线程中
#协程,自动切换
import gevent,time
from gevent import monkey
monkey.patch_all()
def test1():
    for i in range(10):
        time.sleep(1)
        print(‘test1‘, 1)

def test2():
    for i in range(10):
        time.sleep(2)
        print(‘test2‘, 1)

g1 = gevent.spawn(test1)
g2 = gevent.spawn(test2)
g1.join()            #开启
g2.join()
#server端
import gevent
from gevent import socket, monkey
monkey.patch_all()
def server_recv_conn(port):
    s = socket.socket()
    s.bind((‘0.0.0.0‘, port))
    s.listen(200)
    while True:
        conn, addr = s.accept()
        g = gevent.spawn(recv_request, conn)
        g.join()
def recv_request(conn):
    while True:
        data = conn.recv(1024)
        data = data.decode(‘utf-8‘)
        print("recv:", data)
        conn.send(data.upper().encode(‘utf-8‘))

if __name__ == ‘__main__‘:
    server_recv_conn(8888)

#client端
import socket

HOST = ‘localhost‘
PORT = 8888
s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
s.connect((HOST, PORT))
while True:
    msg = input("==>:")
    s.send(msg.encode(‘utf-8‘))
    data = s.recv(1024)
    print(‘接收:‘, data.decode(‘utf-8‘))
s.close()
 

原文地址:https://www.cnblogs.com/zhou2019/p/10599204.html

时间: 2024-11-13 06:55:12

python第八章:多任务--小白博客的相关文章

python爬虫爬取csdn博客专家所有博客内容

python爬虫爬取csdn博客专家所有博客内容: 全部过程采取自动识别与抓取,抓取结果是将一个博主的所有 文章存放在以其名字命名的文件内,代码如下 结果如下: 版权声明:本文为博主原创文章,未经博主允许不得转载.

python数据挖掘领域工具包 - wentingtu - 博客园

python数据挖掘领域工具包 - wentingtu - 博客园 python数据挖掘领域工具包 原文:http://qxde01.blog.163.com/blog/static/67335744201368101922991/ Python在科学计算领域,有两个重要的扩展模块:Numpy和Scipy.其中Numpy是一个用python实现的科学计算包.包括: 一个强大的N维数组对象Array: 比较成熟的(广播)函数库: 用于整合C/C++和Fortran代码的工具包: 实用的线性代数.傅

python爬虫抓取51cto博客大牛的文章名和文章url

脚本一: #!/usr/bin/env python #coding:utf-8 from  bs4  import  BeautifulSoup import urllib import re art = {} for page in range(1,5): page = str(page) url = 'http://yujianglei.blog.51cto.com/all/7215578/page/'  + page response = urllib.urlopen(url).read

[Python爬虫]高并发cnblogs博客备份工具(可扩展成并行)

并发爬虫小练习. 直接粘贴到本地,命名为.py文件即可运行,运行时的参数为你想要爬取的用户.默认是本博客. 输出是以用户名命名的目录,目录内便是博客内容. 仅供学习python的多线程编程方法,后续会重写成并行爬虫. 爬虫代码如下: 1 # -*- coding:utf-8 -*- 2 from multiprocessing.managers import BaseManager 3 from pyquery import PyQuery 4 import os, sys, urllib 5

python网络爬虫 新浪博客篇

上次写了一个爬世纪佳缘的爬虫之后,今天再接再厉又写了一个新浪博客的爬虫.写完之后,我想了一会儿,要不要在博客园里面写个帖子记录一下,因为我觉得这份代码的含金量确实太低,有点炒冷饭的嫌疑,就是把上次的代码精简了一下,用在另外一个网站而已,而且爬别人的博客总有一种做贼心虚的感觉,怕被各位园友认为是偷窥狂魔.但是这份代码总归是我花了精力去写的,我也不想就此让它深藏在硬盘之中(电脑实在太老了,可能过两年硬盘坏了,这份代码就消失了),还是贴出来权当作抛砖引玉. 说起要爬新浪博客,总归是有一个原因吧.我的原

Python爬虫入门教程:博客园首页推荐博客排行的秘密

1. 前言 虽然博客园注册已经有五年多了,但是最近才正式开始在这里写博客.(进了博客园才知道这里面个个都是人才,说话又好听,超喜欢这里...)但是由于写的内容都是软件测试相关,热度一直不是很高.看到首页的推荐博客排行时,心里痒痒的,想想看看这些大佬究竟是写了什么文章这么受欢迎,可以被推荐.所以用Python抓取了这100位推荐博客,简单分析了每个博客的文章分类,阅读排行榜,评论排行榜及推荐排行榜,最后统计汇总并生成词云.正好这也算是一篇非常好的Python爬虫入门教程了. 2. 环境准备 2.1

挑战年薪20万python web工程师:大型博客系统开发

我们从招聘广告中总结出,Python web工程师须具有以下技能: 扎实的Python编程基础,熟练掌握Python开发: 掌握Python web开发框架Django.Flask; 熟悉MySQL, 熟练运用SQL, 了解常见的sql优化技巧; 熟悉基本的unix/linux命令, 能熟练使用git进行团队协同开发; 熟悉HTML5.CSS3.JavaScript.AJAX等Web前端开发技术: 熟悉jQuery.Bootstrap.Vue.Quasar等前端框架: 如你掌握了以上技能,那么恭

python项目实战:实时博客项目 源码下载

最终效果 ASGI .Django Channels 简介 ASGI 的完整说明我在去年做了一个翻译. ASGI 由 Django 团队提出,为了解决在一个网络框架里(如 Django)同时处理 HTTP.HTTP2.WebSocket 协议.为此,Django 团队开发了 Django Channels 插件,为 Django 带来了 ASGI 能力. 在 ASGI 中,将一个网络请求划分成三个处理层面,最前面的一层,interface server(协议处理服务器),负责对请求协议进行解析,

[Python] 命令行模式阅读博客园的博文

通过Python脚本读取博客园分页数据,把标题.摘要和链接过滤出来,方便我们在命令行中阅读. 阅读本文可以熟悉一般爬虫的原理,以及指令交互界面的开发. 一.说明 运行环境:win10/Python 3.5(Win10的玩家可以下载 Window Terminal Preview玩玩,确实不错!): 主要模块:requests(发送http请求).lxml.etree(格式化DOM树,xpath查找).sys(获取命令行参数.重写标准输出等).os(系统相关.如清屏操作): 注意:由于时间仓促,没