序都是在同一个处理机上运行,但任一个时刻点上只有一个程序在处理机运行。
我们所说的高并发时什么?
上面的定义明显不是我们通常所言的并发,在互联网时代,所讲的并发,高并发,通常是指并发访问。也就是在某个事件点,有多少访问同时到来。
通常如果一个系统日PV在千万以上,有可能是一个高并发的系统。(有的公司完全不走技术路线,全靠机器堆,这不在我们讨论范围之内)
QPS:每秒钟请求或者查询的数量,在互联网领域,指每秒响应请求数(指HTTP请求);
QPS不等于并发连接数。QPS是每秒HTTP请求数量,并发连接数是系统同时处理的请求数量。
吞吐量:单位时间内处理的请求数量(通常由QPS与并发数决定);
响应时间:从请求发出到收到响应话花费的时间。例如系统处理一个HTTP请求需要100ms,这个100ms就是系统的相应时间。
PV:综合浏览量(Page View),即页面浏览量或者点击量,一个访客在 24小时内访问的页面数量。同一个人浏览你的网站同一页面,只记一次PV。
UV:独立访客(UniQue Visitor),即一定时间范围内相同访客多次访问网站只计算为1个独立访客。、
带宽:计算宽带大小需关注两个指标,峰值流量和页面的平均大小。
日网站带宽 = PV / 统计时间 (换算到秒)* 平均页面大小(单位KB)* 8
峰值一般是平均值的倍数,根据实际情况来定。
80%的访问集中在百分之20的时间。
(总PV数 * 80%)/(6小时秒数 * 20%)= 峰值每秒请求数(峰值QPS)。
压力测试:测试能承受的并发数,测试最大承受QPS值。
常用的性能测试工具:ab 、wrk、http_load、 Web Bench、Siege 、Apache JMeter
ab的使用:-c 并发数 -n 请求总数
模拟 并发100 总请求5000次
例子:ab -c 100 -n 5000 zhanzj.xin
注意事项:测试机器要与被测试机器分开;不要对线上服务做压力测试;观察测试工具ab所在机器,以及被测试的前端机的CPU,内存,网络等都不超过最高限度的75%;
QPS 达到50
可以称为小型网站,一般的服务器就可以应付。
QPS 达到100
假设关系型数据库的每次请求在0.01秒完成。
假设单页面只有一个sql查询,那么100QPS意味着1秒钟之内完成100次请求,但是此时我们并不能保证数据库查询能完成100次,方案:数据库缓存层、数据库的负载均衡;
QPS达到80
假设我们使用的是百兆带宽,意味着网站出口的实际带宽是8M左右,假设每个页面只有10K,在这个并发条件下,百兆带宽已经吃完。 方案:CDN加速,负载均衡。
QPS达到1000
假设使用Memcache缓存数据库查询数据,每个页面对Memcache的请求远大于直接对DB的请求,Memcache的悲观并发数在2W左右,但有可能在之前内网带宽已经吃光,表现出不稳定,方案:静态HTML缓存;
QPS达到2000
这个级别下,文件系统访问锁都成为了灾难,方案:做业务分离,分布式存储;
流量优化:防盗链处理(拒绝恶意请求)
前端优化:1、减少HTTP请求(合并图片,css,js文件);2、添加异步请求;3、启用浏览器缓存和文件压缩;4、CDN加速;5、建立独立的图片服务器
服务端优化:1、页面静态化处理;2、并发处理(队列,异步,多进程);3数据库优化:数据库缓存(NOSQL),分库分表,分区操作,读写分离,负载均衡;
WEB服务器优化:1、负载均衡,2、NGINX反向代理