Nginx多进程高并发、低时延、高可靠机制在缓存代理中的应用

  1. 开发背景

  

  现有开源缓存代理中间件有twemproxy、codis等,其中twemproxy为单进程单线程模型,只支持memcache单机版和redis单机版,都不支持集群版功能。

  

  由于twemproxy无法利用多核特性,因此性能低下,短连接QPS大约为3W,长连接QPS大约为13W,同时某些场景时延抖动厉害。

  

  为了适应公有云平台上业务方的高并发需求,因此决定借助于twemproxy来做二次开发,把nginx的高性能、高可靠、高并发机制引入到twemproxy中,通过master+多worker进程来实现七层转发功能。

  

  2    Twemproxy

  

  2.1  Twemproxy简介

  

  Twemproxy 是一个快速的单线程代理程序,支持 Memcached ASCII协议和更新的Redis协议。它全部用C写成,使用Apache 2.0 License授权。支持以下特性:

  

  i)速度快

  

  ii)轻量级

  

  iii)维护持久的服务器连接

  

  iiii)启用请求和响应的管道

  

  iiiii)支持代理到多个后端缓存服务器

  

  iiiii)同时支持多个服务器池

  

  iiiiii)多个服务器自动分享数据

  

  iiiiiii)可同时连接后端多个缓存集群

  

  iiiiiiii)实现了完整的 memcached ascii 和 redis 协议.

  

  iiiiiiiii)服务器池配置简单,通过一个 YAML 文件即可

  

  iiiiiiiiii)一致性hash

  

  iiiiiiiiii)详细的监控统计信息

  

  iiiiiiiiiii)支持 Linux, *BSD, OS X and Solaris (SmartOS)

  

  iiiiiiiiiiii)支持设置HashTag

  

  iiiiiiiiiiiiiii)连接复用,内存复用,提高效率

  

  2.2 memcache缓存集群拓扑结构

  

  图1 twemproxy缓存集群拓扑图

  

  如上图所示,实际应用中业务程序通过轮询不同的twemproxy来提高qps,同时实现负载均衡。

  

  说明:官方memcache没有集群版和持久化功能,集群版和持久化功能由我们自己内部开发完成。

  

  2.3 推特原生twemproxy瓶颈

  

  如今twemproxy凭借其高性能的优势, 在很多互联网公司得到了广泛的应用,已经占据了其不可动摇的地位, 然而在实际的生产环境中, 存在以下缺陷,如下:

  

  i)单进程单线程, 无法充分发挥服务器多核cpu的性能

  

  ii)当twemproxy qps短连接达到8000后,消耗cpu超过70%,时延陡增。

  

  iii)大流量下造成IO阻塞,无法处理更多请求,qps上不去,业务时延飙升

  

  iiii)维护成本高,如果想要充分发挥服务器的所有资源包括cpu、 网络io等,就必须建立多个twemproxy实例,维护成本高

  

  iiiii)扩容、升级不便

  

  原生twemproxy进程呈现了下图现象:一个人干活,多个人围观。多核服务器只有一个cpu在工作,资源没有得到充分利用。

  

  3. Nginx

  

  nginx是俄罗斯软件工程师Igor Sysoev开发的免费开源web服务器软件,聚焦于高性能,高并发和低内存消耗问题,因此成为业界公认的高性能服务器,并逐渐成为业内主流的web服务器。主要特点有:

  

  i)完全借助epoll机制实现异步操作,避免阻塞。

  

  ii)重复利用现有服务器的多核资源。

  

  iii)充分利用CPU 亲和性(affinity),把每个进程与固定CPU绑定在一起,给定的 CPU 上尽量长时间地运行而不被迁移到其他处理器的倾向性,减少进程调度开销。

  

  iiii)请求响应快

  

  iiiii)支持模块化开发,扩展性好

  

  iiiii)Master+多worker进程方式,确保worker进程可靠工作。当worker进程出错时,可以快速拉起新的worker子进程来提供服务。

  

  iiiiii)内存池、连接池等细节设计保障低内存消耗。

  

  iiiiii)热部署支持,master与worker进程分离设计模式,使其具有热部署功能。

  

  iiiiiii)升级方便,升级过程不会对业务造成任何伤害。

  

  Nginx多进程提供服务过程如下图所示:

  

  4    Nginx master+worker多进程机制在twemproxy中的应用

  

  4.1  为什么选择nginx多进程机制做为参考?

  

  Twemproxy和nginx都属于网络io密集型应用,都属于七层转发应用,时延要求较高,应用场景基本相同。

  

  Nginx充分利用了多核cpu资源,性能好,时延低。

  

  4.2  Master-worker多进程机制原理

  

  Master-worker进程机制采用一个master进程来管理多个worker进程。每一个worker进程都是繁忙的,它们在真正地提供服务,master进程则很“清闲”,只负责监控管理worker进程, 包含:接收来自外界的信号,向各worker进程发送信号,监控worker进程的运行状态,当worker进程退出后(异常情况下),会自动重新启动新的worker进程。

  

  worker进程负责处理客户端的网络请求,多个worker进程同时处理来自客户端的不同请求,worker进程数可配置。

  

  4.3 多进程关键性能问题点

  

  master-worker多进程模式需要解决的问题主要有:

  

  i)linux内核低版本(2.6以下版本), “惊群”问题

  

  ii) linux内核低版本(2.6以下版本),负载均衡问题

  

  iii)linux内核高版本(3.9以上版本)新特性如何利用

  

  iii)如何确保进程见高可靠通信

  

  iiii)如何减少worker进程在不同cpu切换的开销

  

  iiiii)master进程如何汇总各个工作进程的监控数据

  

  iiiiii)worker进程异常,如何快速恢复

  

  4.3.1  linux内核低版本关键技术问题

  

  由于linux低内核版本缺陷,因此存在”惊群”、负载不均问题,解决办法完全依赖应用层代码保障。

  

  4.3.1.1 如何解决“惊群”问题

  

  当客户端发起连接后,由于所有的worker子进程都监听着同一个端口,内核协议栈在检测到客户端连接后,会激活所有休眠的worker子进程,最终只会有一个子进程成功建立新连接,其他子进程都会accept失败。

  

  Accept失败的子进程是不应该被内核唤醒的,因为它们被唤醒的操作是多余的,占用本不应该被占用的系统资源,引起不必要的进程上下文切换,增加了系统开销,同时也影响了客户端连接的时延。

  

  “惊群”问题是多个子进程同时监听同一个端口引起的,因此解决的方法是同一时刻只让一个子进程监听服务器端口,这样新连接事件只会唤醒唯一正在监听端口的子进程。

  

  因此“惊群”问题通过非阻塞的accept锁来实现进程互斥accept(),其原理是:在worker进程主循环中非阻塞trylock获取accept锁,如果trylock成功,则此进程把监听端口对应的fd通过epoll_ctl()加入到本进程自由的epoll事件集;如果trylock失败,则把监听fd从本进程对应的epoll事件集中清除。

  

  Nginx实现了两套互斥锁:基于原子操作和信号量实现的互斥锁、基于文件锁封装的互斥锁。考虑到锁的平台可移植性和通用性,改造twemproxy选择时,选择文件锁实现。

  

  如果获取accept锁成功的进程占用锁时间过长,那么其他空闲进程在这段时间内无法获取到锁,从而无法接受新的连接。最终造成客户端连接相应时间变长,qps低,同时引起负载严重不均衡。为了解决该问题,选择通过post事件队列方式来提高性能,trylock获取到accept锁成功的进程,其工作流程如下:

  

  1.trylock获取accept锁成功

  

  2.通过epoll_wait获取所有的事件信息,把监听到的所有accept事件信息加入accept_post列表,把已有连接触发的读写事件信息加入read_write_post列表。

  

  3.执行accept_post列表中的所有事件

  

  4.Unlock锁

  

  5.执行read_write_post列表中的事件。

  

  Worker进程主循环工作流程图如下:

  

  从上图可以看出,worker进程借助epoll来实现网络异步收发,客户端连接twemproxy的时候,worker进程循环检测客户端的各种网络事件和后端memcached的网络事件,并进行相应的处理。

  

  twemproxy各个进程整体网络i/o处理过程图如下:

  

  4.3.1.2     如何解决“负载均衡“问题

  

  在多个子进程争抢处理同一个新连接事件时,一定只有一个worker子进程最终会成功建立连接,随后,它会一直处理这个连接直到连接关闭。这样,如果有的子进程“运气”很好,它们抢着建立并处理了大部分连接,其他子进程就只能处理少量连接,这对多核cpu架构下的应用很不利。理想情况下,每个子进程应该是平等的,每个worker子进程应该大致平均的处理客户端连接请求。如果worker子进程负载不均衡,必然影响整体服务的性能。

  

  nginx通过连接阈值机制来实现负载均衡,其原理如下:每个进程都有各自的最大连接数阈值max_threshold和当前连接阈值数local_threshold,和当前连接数阈值,进程每接收一个新的连接,local_threshold增一,连接断开后,local_threashold减一。如果local_threshold超过max_threshold,则不去获取accept锁,把accept机会留给其他进程,同时把local_threshold减1,这样下次就有机会获取accept锁,接收客户端连接了。

  

  在实际业务应用中,有的业务采用长连接和twemproxy建立连接,连接数最大可能就几百连接,如果设置max_threshold阈值过大,多个连接如果同时压到twemproxy,则很容易引起所有连接被同一个进程获取从而造成不均衡。

  

  为了尽量减少负载不均衡,在实际应用中,新增了epoll_wait超时时间配置选项,把该超时时间设短,这样减少空闲进程在epoll_wait上的等待事件,从而可以更快相应客户端连接,并有效避免负载不均衡。

  

  4.3.2 Linux内核高版本TCP REUSEPORT特性如何利用

  

  4.3.2.1 什么是reuseport?

  

  reuseport是一种套接字复用机制,它允许你将多个套接字bind在同一个IP地址/端口对上,这样一来,就可以建立多个服务来接受到同一个端口的连接。

  

  4.3.2.2 支持reuseport和不支持reuseport的区别

  

  如果linux内核版本小于3.9,则不支持reuseport(注:部分centos发行版在低版本中已经打了reuseport patch,所以部分linux低版本发行版本也支持该特性)。

  

  不支持该特性的内核,一个ip+port组合,只能被监听bind一次。这样在多核环境下,往往只能有一个线程(或者进程)是listener,也就是同一时刻只能由一个进程或者线程做accept处理,在高并发情况下,往往这就是性能瓶颈。其网络模型如下:

  

  在Linux kernel 3.9带来了reuseport特性,它可以解决上面的问题,其网络模型如下:

  

  reuseport是支持多个进程或者线程绑定到同一端口,提高服务器程序的吞吐性能,其优点体现在如下几个方面:

  

  i)允许多个套接字 bind()/listen() 同一个TCP/UDP端口

  

  ii)每一个线程拥有自己的服务器套接字

  

  iii)在服务器套接字上没有了锁的竞争,因为每个进程一个服务器套接字

  

  iiii)内核层面实现负载均衡

  

  iiiii)安全层面,监听同一个端口的套接字只能位于同一个用户下面

  

  4.3.3 Master进程和worker进程如何通信?

  

  由于master进程需要实时获取worker进程的工作状态,并实时汇总worker进程的各种统计信息,所以选择一种可靠的进程间通信方式必不可少。

  

  在twemproxy改造过程中,直接参考nginx的信号量机制和channel机制(依靠socketpair)来实现父子进程见通信。Master进程通过信号量机制来检测子进程是否异常,从而快速直接的反应出来;此外,借助socketpair,封装出channel接口来完成父子进程见异步通信,master进程依靠该机制来统计子进程的各种统计信息并汇总,通过获取来自master的汇总信息来判断整个twemproxy中间件的稳定性、可靠性。

  

  配置下发过程:主进程接收实时配置信息,然后通过channel机制发送给所有的worker进程,各个worker进程收到配置信息后应答给工作进程。流程如下:

  

  获取监控信息流程和配置下发流程基本相同,master进程收到各个工作进程的应答后,由master进程做统一汇总,然后发送给客户端。

  

  4.3.4 如何减少worker进程在不同cpu切换的开销

  

  CPU 亲和性(affinity) 就是进程要在某个给定的 CPU 上尽量长时间地运行而不被迁移到其他处理器的倾向性。

  

  Linux 内核进程调度器天生就具有被称为 软 CPU 亲和性(affinity) 的特性,这意味着进程通常不会在处理器之间频繁迁移。这种状态正是我们希望的,因为进程迁移的频率小就意味着产生的负载小。具体参考sched_setaffinity函数。

  

  4.3.5 worker进程异常如何减少对业务的影响?

  

  在实际线上环境中,经常出现这样的情况:某个多线程服务跑几个月后,因为未知原因进程挂了,最终造成整个服务都会不可用。

  

  这时候,master+多worker的多进程模型就体现了它的优势,如果代码有隐藏的并且不容易触发的bug,某个时候如果某个请求触发了这个bug,则处理这个请求的worker进程会段错误退出。但是其他worker进程不会收到任何的影响,也就是说如果一个改造后的twemproxy起了20个worker进程,某个时候一个隐藏bug被某个请求触发,则只有处理该请求的进程段错误异常,其他19个进程不会受到任何影响,该隐藏bug触发后影响面仅为5%。如果是多线程模型,则影响面会是100%。

  

  如果某个worker进程挂了,master父进程会感知到这个信号,然后重新拉起一个worker进程,实现瞬间无感知”拉起”恢复。以下为模拟触发异常段错误流程:

  

  如上图所示,杀掉31420 worker进程后,master进程会立马在拉起一个31451工作进程,实现了快速恢复。

  

  多进程异常,自动”拉起”功能源码,可以参考如下demo:

  

  https://github.com/y123456yz/reading-code-of-nginx-1.9.2/blob/master/nginx-1.9.2/src/demo.c

  

  5    网络优化

  

  5.1 网卡多队列

  

  在实际上线后,发现软中断过高,几乎大部分都集中在一个或者几个CPU上,严重影响客户端连接和数据转发,qps上不去,时延抖动厉害。

  

  RSS(Receive Side Scaling)是网卡的硬件特性,实现了多队列,可以将不同的流分发到不同的CPU上。支持RSS的网卡,通过多队列技术,每个队列对应一个中断号,通过对每个中断的绑定,可以实现网卡中断在cpu多核上的分配,最终达到负载均衡的作用。

  

  5.2 可怕的40ms

  

  原生twemproxy在线上跑得过程中,发现时延波动很大,抓包发现其中部分数据包应答出现了40ms左右的时延,拉高了整体时延抓包如下(借助tcprstat工具):

  

  解决办法如下:在recv系统调用后,调用一次setsockopt函数,设置TCP_QUICKACK。代码修改如下:

  

  6   Twemproxy改造前后性能对比   (时延、qps对比)

  

  6.1  线上真实流量时延对比

  

  6.1.1  改造前线上twemproxy集群时延

  

  线上集群完全采用开源twemproxy做代理,架构如下:

  

  未改造前线上twemproxy+memcache集群,qps=5000~6000,长连接,客户端时延分布如下图所示:

  

  在twemproxy机器上使用tcprstat监控到的网卡时延如下:

  

  从上面两个图可以看出,采用原生twemproxy,时延高,同时抖动厉害。

  

  6.1.2 参照nginx改造后的twemproxy时延

  

  线上集群一个twemproxy采用官方原生twemproxy,另一个为改造后的twemproxy,其中改造后的twemproxy配置worker进程数为1,保持和原生开源twemproxy进程数一致,架构如下:

  

  替换线上集群两个代理中的一个后(影响50%流量),长连接,qps=5000~6000,客户端埋点监控时延分布如下:

  

  替换两个proxy中的一个后,使用tcprstat在代理集群上面查看两个代理的时延分布如下:

  

  原生twemproxy节点机器上的时延分布:

  

  另一个改造后的twemproxy节点机器上的时延分布:

  

  总结:替换线上两个proxy中的一个后,客户端时间降低了一倍,如果线上集群两个代理都替换为改造后的twemproxy,客户端监控时延预计会再降低一倍,总体时延降低3倍左右。

  

  此外,从监控可以看出,改造后的twemproxy时延更低,更加稳定,无任何波动。

  

  6.2 参考nginx多进程改造后的twemproxy线下压测结果(开启reuseport功能)

  

  监听同一个端口,数据长度100字节,压测结果如下:

  

  linux内核版本:linux-3.10

  

  物理机机型: M10(48 cpu)

  

  多进程监听同一个端口,数据长度150字节,压测结果如下:

  

  linux内核版本:linux-3.10

  

  物理机机型: TS60 (24 cpu)

  

  7   总结

  

  7.1 多进程、多线程机制选择

  

  选择参照nginx多进程机制,而不选择多线程实现原因主要有:

  

  1) 多进程机制无锁操作,实现更容易

  

  2) 多进程的代理,整个worker进程无任何锁操作,性能更好

  

  3) 如果是多线程方式,如果代码出现bug段错误,则整个进程挂掉,整个服务不可用。而如果是多进程方式,因为bug触发某个worker进程段错误异常,其他工作进程不会受到如何影响,20个worker进程,如果触发异常,同一时刻只有有1/20的流量受到影响。而如果是多线程模式,则100%的流量会受到影响。

  

  4) worker进程异常退出后,master进程立马感知拉起一个新进程提供服务,可靠性更高。

  

  5)  配置热加载、程序热升级功能实现更加容易

  

  7.2 参照nginx改造后的twemproxy特性

  

  支持nginx几乎所有的优秀特性,同时也根据自己实际情况新增加了自有特性:

  

  1)  master+多worker进程机制

  

  2) 适配所有linux内核版本,内核低版本惊群问题避免支持

  

  3) quic_ack支持

  

  4) reuser_port适配支持

  

  5) worker进程异常,master进程自动拉起功能支持

  

  6) 90%、95%、98%、100%平均时延统计功能支持

  

  7) memcache单机版、集群版支持

  

  8) redis单机版、集群版支持

  

  9) 二进制协议、文本协议同时支持

  

  10) redis、memcache集群在线扩容、缩容、数据迁移支持,扩缩容、数据迁移过程对业务无任何影响。

  

  11) 多租户支持,一个代理可以接多个memcache、redis集群,并支持混部。

  

  12) mget、gets、sets等批量处理命令优化处理

  

  13) 慢响应日志记录功能支持

  

  14) 内存参数实时修改支持

  

  15) 详细的集群监控统计功能

  

  16) CPU亲缘性自添加

  

  17)内存配置动态实时修改

  

  7.3后期计划

  

  添加如下功能:

  

  i) 配置文件热加载支持。

  

  ii) 代码热升级功能支持。

  

  7.4  长远规划展望

  

  抽象出一款类似nginx的高性能代理软件,nginx支持http协议,我们的支持tcp协议代理,覆盖nginx所有功能,包括前面提到的所有功能,同时支持模块化开发。这样,很多的tcp协议代理就无需关心网络架构底层实现,只需要根据需要开发对应的协议解析模块,和自己关心的统计、审计等功能功能,降低开发成本。现有开源的中间件,很大一部分都是tcp的,有自己的私有tcp协议,把这个抽象出来,开发成本会更低

  

  对nginx有兴趣的可以源码分析参考:

  

  1 import re

2 import requests

3

4

5 url = "https://www.newegg.cn/Product/A36-125-E5L.htm?neg_sp=Home-_-A36-125-E5L-_-CountdownV1"

6 res = requests.get(url)

7 result = re.findall("name:‘www.yongshi123.cn(.+?)‘, price:‘(.+?)‘", res.text)

8 print(result)

复制代码

难一点的方法是把图片下载到本地之后进行识别,由于这个图片的清晰度很高,也没有扭曲或者加入干扰线什么的,所以可以直接使用OCR进行识别。但是用这种方法的话需要安装好Tesseract-OCR,这个工具的安装过程还是比较麻烦的。用这种方法破解的代码如下:

复制代码

1 import requests

2 import pytesseract

3 from PIL import Image

4 from lxml import etree

5

6

7 url = "https://www.wujirongyaoy.com /Product/A36-125-E5L.htm?neg_sp=Home-_-A36-125-E5L-_-CountdownV1"

8 res = requests.get(url)

9 et = etree.HTML(res.www.dfgjpt.com text)

10 img_url = et.xpath(‘//*[@id="priceValue"]/span/strong/img/@src‘)[0]

11 with open(www.yongshiyule178.com‘price.png‘www.yingka178.com,‘wb‘) as f:

12      f.write(requests.get(img_url).content)

13 pytesseract.pytesseract.tesseract_cmd www.jiahuayulpt.com= ‘E:/Python/Tesseract-OCR/tesseract.exe‘

14 text = pytesseract.image_to_string(Image.open(‘price.png‘))

15 print(text)

16 # 6999.00

  

  内核网卡时延分析工具:

  

  https://github.com/y123456yz/tcprstat

  

  twemproxy源码分析:

  

  https://github.com/y123456yz/Reading-and-comprehense-twemproxy0.4.1

  

  内核协议栈延迟确认机制:

  

  https://github.com/y123456yz/Reading-and-comprehense-linux-Kernel-network-protocol-stack

  Django的rest_framework的视图之Mixin类编写视图源码解析    Mixin类编写视图    我们这里用auther表来做演示,先为auther和autherdetail写2个url    url(r‘^autherdetail/(?P<id>\d+)‘, views.Book_detail_cbv.as_view(), name="autherdetail"),    url(r‘^auther/‘, views.Book_cbv.as_view(),name="auther"),    然后分别为这2个类写对应的序列化的类    class authermodelserializer(serializers.ModelSerializer):    class Meta:    model = models.Auther    fields = "__all__"    下面我们开写视图函数    需要在view文件中导入2个模块    1    2    from rest_framework import mixins    from rest_framework import generics    先介绍一下mixins类,我们主要用mixins类来对queryset对象或者model对象做操作    mixins.ListModelMixin    这个是用来显示queryset的数据    mixins.CreateModelMixin    这个用来创建一条model对象    mixins.RetrieveModelMixin    这个是用来显示一个model对象    mixins.DestroyModelMixin    这个是用来删除一个model对象    mixins.UpdateModelMixin    这个是用来更新一个model对象    下面我们一个一个来看下面的类    1、看下mixins.ListModelMixin    这个类就只有一个方法,list方法,我们看下面的代码其实很熟悉,就是把一个queryset对象做序列化后,然后把序列化后的结果返回    class ListModelMixin(object):    """    List a queryset.    """    def list(self, request, *args, **kwargs):    queryset = self.filter_queryset(self.get_queryset())    page = self.paginate_queryset(queryset)    if page is not None:    serializer = self.get_serializer(page, many=True)    return self.get_paginated_response(serializer.data)    serializer = self.get_serializer(queryset, many=True)    return Response(serializer.data)    我们这里看到get_serializer中的参数有个queryset,那么这个queryset是什么呢?    通过上面的图,我们大致可以猜到,是由self.get_queryset()这个方法返回的结果,那么这个方法又干了什么呢?    首先我们要清楚self是什么?    从上面的图我们知道,self其实就是Auther_view这个类的实例对象,这个实例对象根本就没有get_queryset这个方法,但是由于这个类继承了3个类,我们一个一个找,最终在    generics.GenericAPIView这个类中找到了get_queryset这个方法    def get_queryset(self):    """    Get the list of items for this view.    This must be an iterable, and may be a queryset.    Defaults to using `self.queryset`.    This method should always be used rather than accessing `self.queryset`    directly, as `self.queryset` gets evaluated only once, and those results    are cached for all subsequent requests.    You may want to override this if you need to provide different    querysets depending on the incoming request.    (Eg. return a list of items that is specific to the user)    """    assert self.queryset is not None, (    "‘%s‘ should either include a `queryset` attribute, "    "or override the `get_queryset()` method."    % self.__class__.__name__    )    queryset = self.queryset    if isinstance(queryset, QuerySet):    # Ensure queryset is re-evaluated on each request.    queryset = queryset.all()    return queryset    我们可以很清晰的看到get_queryset这个方法返回的结果就是self.queryset    那么self.queryset这个是什么呢?    我们在Auhter_view这个类中已经定义了这个类变量,所以我们这里定义的2个类变量的名称是固定的,不能随意修改的,属于配置项    下面我们走的流程就和之前差不多了    先定义get请求的处理的函数    因为mixins.ListModelMixin这个类是为了显示queryset对象的类,那么下面我们进入这个类    所以我们在get方法中,直接调用list方法的返回结果就是我们想要的结果    2、在来看mixin.CreateModelMixin类    这个类是为了创建一个model对象    首先进入这个类,看下具体的代码    class CreateModelMixin(object):    """    Create a model instance.    """    def create(self, request,www.wujirongyaoy.com *args, **kwargs):    serializer = self.get_serializer(data=request.data)    serializer.is_valid(raise_www.yongshiyule178.com exception=True)    self.perform_create( www.dfgjpt.com serializer)    headers = self.get_success_headers(serializer.www.feifanyule.cn data)    return Response(serializer.data, status=status.HTTP_201_CREATED, headers=headers)    def perform_create(self, www.jiahuayulpt.com serializer):    serializer.save()    def get_success_headers(self, data):    try:    return {‘Location‘: www.yongshi123.cn str(data[api_settings.URL_FIELD_NAME])}    except (TypeError, www.dashuj5.com KeyError):    return {}    下面我们来分析一下代码    首先这里有个self.get_serializer方法,这个方法也在generics.GenericAPIView类中    下面我们在来看下get_serializer方法    def get_serializer(self, *args, **kwargs):    """    Return the serializer instance that should be used for validating and    deserializing input, and for serializing output.    """    serializer_class = self.get_serializer_class()    kwargs[‘context‘] = self.get_serializer_context()    return serializer_class(*args, **kwargs)    我们在来看下get_serializer_class这个方法    我们看到非常清楚,这个函数的返回值就是我们先前定义个serializer_class的类变量,所以这个类变量的名称也不能修改,必须要这么写,属于一个配置类的变量    流程我们已经梳理清楚了,下面我们在看下post请求的视图函数    post请求调用的mixins.CreateModelMixin类中的create方法    class CreateModelMixin(object):    """    Create a model instance.    """    def create(self, request, *args, **kwargs):    serializer = self.get_serializer(data=request.data)    serializer.is_valid(raise_exception=True)    self.perform_create(serializer)    headers = self.get_success_headers(serializer.data)    return Response(serializer.data, status=status.HTTP_201_CREATED, headers=headers)    最后我们在看下perform.create这个方法,是不是很熟悉了,调用save方法保存    3、然后来看下mixins.RetriveModelMixin类    先看下这个类的代码    class RetrieveModelMixin(object):    """    Retrieve a model instance.    """    def retrieve(self, request, *args, **kwargs):    instance = self.get_object()    serializer = self.get_serializer(instance)    return Response(serializer.data)    然后在来看下get_object这个方法干了什么,这个方法同样在generics.GenericAPIView类中,我们一猜就知道这个方法是获取一个model对象,然后对这个model对象进行序列化处理    def get_object(self):    """    Returns the object the view is displaying.    You may want to override this if you need to provide non-standard    queryset lookups.  Eg if objects are referenced using multiple    keyword arguments in the url conf.    """    queryset = self.filter_queryset(self.get_queryset())    # Perform the lookup filtering.    lookup_url_kwarg = self.lookup_url_kwarg or self.lookup_field    assert lookup_url_kwarg in self.kwargs, (    ‘Expected view %s to be called with a URL keyword argument ‘    ‘named "%s". Fix your URL conf, or set the `.lookup_field` ‘    ‘attribute on the view correctly.‘ %    (self.__class__.__name__, lookup_url_kwarg)    )    filter_kwargs = {self.lookup_field: self.kwargs[lookup_url_kwarg]}    obj = get_object_or_404(queryset, **filter_kwargs)    # May raise a permission denied    self.check_object_permissions(self.request, obj)    return obj    我们看到这个方法确实返回一个obj对象    最后看下get请求,调用mixins。RetrieveModelMixin类中的retieve方法返回我们要查询的结果    4、然后我们在看下mixins.DestroyModelMixin类    直接拿到model独享,然后调用perform_destory方法删除这个model对象    class DestroyModelMixin(object):    """    Destroy a model instance.    """    def destroy(self, request, *args, **kwargs):    instance = self.get_object()    self.perform_destroy(instance)    return Response(status=status.HTTP_204_NO_CONTENT)    def perform_destroy(self, instance):    instance.delete()    然后我们在看下视图函数中是如何处理delete请求的    class Autherdetail_view(mixins.RetrieveModelMixin,mixins.DestroyModelMixin,mixins.UpdateModelMixin,generics.GenericAPIView):    queryset = models.Auther.objects.all()    serializer_class = authermodelserializer    def get(self,request,*args,**kwargs):    return self.retrieve(request,*args,**kwargs)    def delete(self,request,*args,**kwargs):    return self.destroy(request,*args,**kwargs)    直接返回mixins.DestoryModelMixins的detory函数的返回值就可以了    5、最后看下mixins.UpdateModelMixin类    同样,先获取model对象,然后获取序列化类,然后把model对象和request.data一起传递给序列化类    序列化类在调用调用sava方法保存数据    class UpdateModelMixin(object):    """    Update a model instance.    """    def update(self, request, *args, **kwargs):    partial = kwargs.pop(‘partial‘, False)    instance = self.get_object()    serializer = self.get_serializer(instance, data=request.data, partial=partial)    serializer.is_valid(raise_exception=True)    self.perform_update(serializer)    if getattr(instance, ‘_prefetched_objects_cache‘, None):    # If ‘prefetch_related‘ has been applied to a queryset, we need to    # forcibly invalidate the prefetch cache on the instance.    instance._prefetched_objects_cache = {}    return Response(serializer.data)    def perform_update(self, serializer):    serializer.save()    def partial_update(self, request, *args, **kwargs):    kwargs[‘partial‘] = True    return self.update(request, *args, **kwargs)    我们在看put请求的视图函数    class Autherdetail_view(mixins.RetrieveModelMixin,mixins.DestroyModelMixin,mixins.UpdateModelMixin,generics.GenericAPIView):    queryset = models.Auther.objects.all()    serializer_class = authermodelserializer    def get(self,request,*args,**kwargs):    return self.retrieve(request,*args,**kwargs)    def delete(self,request,*args,**kwargs):    return self.destroy(request,*args,**kwargs)    def put(self,request,*args,**kwargs):    return self.update(request,*args,**kwargs)

原文地址:https://www.cnblogs.com/qwangxiao/p/10464307.html

时间: 2024-10-14 03:11:29

Nginx多进程高并发、低时延、高可靠机制在缓存代理中的应用的相关文章

键盘录入多名学生的信息: 格式:姓名,数学成绩,语文成绩,英文成绩,按总分由高到低 将学生的信息进行排列到文件中

主函数类: package cn.io; import java.io.File; import java.io.IOException; import java.util.Collection; import java.util.Collections; import java.util.Comparator; import java.util.Set; public class iosort { /** * @param args * @throws IOException */ /* *

HLS播放器RTSP播放器支持8K播放且低延时高并发全功能流媒体播放器EasyPlayer搭建之HTML中 px,em,rem该如何区别?

EasyPlayer是一款流媒体播放器系列项目,支持RTSP.RTMP.HTTP.HLS.UDP.RTP.File等多种流媒体协议播放. 支持本地文件播放,支持本地抓拍.本地录像.播放旋转.多屏播放.倍数播放等多种功能特性,核心基于ffmpeg,稳定.高效.可靠.可控. 随着多年不断的发展和迭代,不断基于成功的实践经验,发展出包括有: EasyPlayer-RTSP.EasyPlayer-RTMP.EasyPlayerPro 和EasyPlayer.js 等播放器.目前支持Windows. An

(总结)高并发消息队列常用通知机制

最近在研究一个高性能的无锁共享内存消息队列,使用的fifo来通知.结合之前<基于管道通知的百万并发长连接server模型>文章,这里总结一下常用的通知机制. 常用的通知机制中比较典型的有以下几种: 1.signal 这种机制下,我们向被通知进程发送一个特殊的signal(比如SIGUSR1),这样正在睡眠的读进程就会被信号中断,然后醒来. 该方法的优点是:读进程不需要监听一个额外的eventfd,适合一些不方便使用eventfd的场景:另外,用户可以选择是使用实时信号(SIGRTMIN+1),

大数据高并发系统架构实战方案(LVS负载均衡、Nginx、共享存储、海量数据、队列缓存)

课程简介: 随着互联网的发展,高并发.大数据量的网站要求越来越高.而这些高要求都是基础的技术和细节组合而成的.本课程就从实际案例出发给大家原景重现高并发架构常用技术点及详细演练. 通过该课程的学习,普通的技术人员就可以快速搭建起千万级的高并发大数据网站平台. 亮点一:真实环境还原,课程采用了VM环境重现大网站集群服务器环境,真实环境还原再现. 亮点二:基础实用,细节决定成败,课程内容在演练过程中重点介绍各种细节,保证初级人员快速入门及高级进阶. 亮点三:讲师丰富的海量平台运作经验 讲师tom5多

线程,锁,高并发

线程 线程(英语:thread)是操作系统能够进行运算调度的最小单位.它被包含在进程之中,是进程中的实际运作单位.一条线程指的是进程中一个单一顺序的控制流,一个进程中可以并发多个线程,每条线程并行执行不同的任务.Java 虚拟机允许应用程序并发地运行多个执行线程. Thread类:该类的对象代表一个线程 主要方法: Start()方法: Java虚拟机调用该线程的 run 方法,使该线程开始执行(启动线程) sleep()方法: 限时等待 休眠,sleep有时间 join()方法: 当前线程进入

高并发系统设计与时间和空间的平衡

高可用上文我们已经讲过了,可当前互联网时代,怎么少的了高并发呢?高并发和高可用一样, 已经变成各个系统的标配了,如果你的系统QPS没有个大几千上万,都不好意思跟人打招呼,虽然可能每天的调用量不超过100. 高并发这个词,我个人感觉是从电商领域开始往外流传的,特别是电商领域双11那种藐视全球的流量,再把技术架构出来分享一把,现在搞得全互联网都在说高并发,而且你注意回忆一下所有你看到的高并发系统,往往都逃不开一个核心概念,那就是缓存+哈希,一切都是以这个概念和基础的,仿佛这就是高并发的核心技术了.

电商产品开发这些年,遇到的高并发架构坑儿

电商产品开发这些年,遇到的高并发架构坑儿 宇宙通用的镜子 百家号|03-04 14:21 关注 前言 为了让业务可以流畅的运行并且给用户一个好的交互体验,我们需要根据业务场景预估达到的并发量等因素,来设计适合自己业务场景的高并发处理方案. 在电商相关产品开发的这些年,我有幸的遇到了并发下的各种坑,这一路摸爬滚打过来有着不少的血泪史,这里进行的总结,作为自己的归档记录,同时分享给大家. 服务器架构 业务从发展的初期到逐渐成熟,服务器架构也是从相对单一到集群,再到分布式服务. 一个可以支持高并发的服

大型站点高并发架构技术

高并发: 高并发主要是由于网站PV访问量大,单台服务器涌承载大量访问所带来的压力,所以会采用多台服务器进行分流,采用服务器集群技术,对于每个访问会被 发送到哪台服务器,我们采取负载均衡策略,常见的技术有LVS,由于网站中有大量的静态页面,所以采用缓存服务器和反向代理技术,包括HAPROXY,Redis,数据库可以采用数据库集群,进行读写分离,缓解数据库压力. 大型站点高并发架构就是利用负载均衡技术.反向代理技术.数据库集群.web服务器集群.Nosql技术等,以实现单台数据器不能达到的并发量,换

高并发大型网站架构设计

一个大型的网站网站应该由如下6个子系统组成 负载均衡系统 反向代理系统 Web服务器系统 分布式存储系统 底层服务系统 数据库集群系统 为什么要做高并发系统设计? 事实上,针对于任何单一的网络服务器程序,其可承受的同时连接数目是有理论峰值的,通过C++中对TSocket的定义类型:word,我们可以判 定这个连接理论峰值是65535,也就是说,你的单个服务器程序,最多可以承受6万多的用户同时连接.但是,在实际应用中,能达到一万人的同时连接并能保 证正常的数据交换已经是很不容易了,通常这个值都在2