构建高性能web站点

以下为阅读《构建高性能web站点》郭欣 著 第一章的重点总结

1.等待的真相

a) 在用户等待的时间里,大概发生了以下几部分时间:

i. 数据在网络上传输的时间:包括两个部分,浏览器端主机发出请求经过网络到达服务器的时间,服务器回应数据经过网络到达浏览器主机的时间。也称为响应时间,他的决定因素主要包括发送的数据量和网络带宽。站点服务器处理请求并回应数据的时间-

ii. 站点服务器处理请求并生成回应数据的时间。主要消耗在服务器端,包括非常多的环节,我们一般用“每秒处理请求数”指标来衡量这部分时间,也称吞吐率:单位时间内处理的请求数。影响吞吐率的因素非常多,比如服务器的并发策略、I/O模型、I/O性能、CPU核数,当然也包括应用程序本身的逻辑复杂度

iii. 浏览器本地计算和渲染的时间。主要消耗在浏览器端。依赖因素包括浏览器采用的并发策略、样式渲染方式、脚本解释器的性能、页面大小、页面组件数量、页面组件缓存状况、页面组件域名分布以及域名DNS解析等

2.瓶颈在哪里

a) 系统的瓶颈是指影响性能的关键因素,这个因素随着系统的运行又会发生不断的变化或迁移。一旦真正找到影像系统性能的主要因素,坚决对其进行调整和优化

3.增加带宽

4.减少网页中的http请求

a) 设计更简单的网页,使其包含较少的图片和脚本,但可能牺牲了美观和用户交互

b) 将多个图片合并为一个文件,利用css背景图片的偏移技术呈现在网页中,避免多个图片的下载

c) 合并javascript脚本或者css样式表

d) 充分利用http中浏览器的cache策略,减少重复下载

5.加快服务器脚本计算速度

a) 对于拥有较强商业支持的脚本语言,均有内置的优化方案。比如解释器对某个脚本程序第一次解释的时候将中间代码缓存起来,以供下次使用。

b) 对于开源类的脚本语言也有很多第三方组件提供此功能。比如php的apc组件等。

6.使用动态内容缓存:将动态内容的html输出结果缓存起来,成千上万的缓存文件如何存储

7.使用数据缓存:数据缓存存储在哪里呢?需要考虑多方面的因素:速度、共享、

8.将动态内容静态化:虽然避免了可观的重复计算,但是每次还需要调用动态脚本解释器判断缓存是否过期以及读取缓存,这似乎有些多余,而且关键消耗了不少时间

9.更换web服务器软件:有人拿着所谓的测试数据说apache已经过时,你相信吗?另一方面,你正在使用的web服务器软件也许让你无比的自豪,可你知道复杂的配置背后的本质吗?你知道为什么它仅仅在处理你的站点请求时如此出色吗?如果让你编写web服务器软件,你可以让他更快一些吗。我们必须停止盲目的选择,停止对表面现象的崇拜,我们需要学习一些稍显底层的知识来武装自己。

10.页面组件分离

11.合理部署服务器:ip,运营商等的选择

12.使用负载均衡:需要通过各种不同的方法实现web负载均衡。可能是简单的http重定向,或者是给予DNS的轮询解析,或者通过反向代理服务器来实现负载均衡调度,还可以通过lvs来组建服务器集群

13.优化数据库:1.应用程序数据访问组件设计,合理的数据表结构设计,频繁的数据库链接和释放,合理使用各种类型的索引,了解数据库存储引擎特性。将数据散列在多台主机,包括必要的冗余数据,以此来合理的分散数据库的密集访问,数据库扩展便成为我们考虑的方案

14.考虑可扩展性:可扩展性的目的是适应负载的变化

15.减少视觉等待

时间: 2024-10-11 13:23:01

构建高性能web站点的相关文章

【读书笔记】2016.12.10 《构建高性能Web站点》

本文地址 分享提纲: 1. 概述 2. 知识点 3. 待整理点 4. 参考文档 1. 概述 1.1)[该书信息] <构建高性能Web站点>: -- 百度百科 -- 本书目录: 第1章 绪论 1.1 等待的真相 1.2 瓶颈在哪里 1.3 增加带宽 1.4 减少网页中的HTTP请求 1.5 加快服务器脚本计算速度 1.6 使用动态内容缓存 1.7 使用数据缓存 1.8 将动态内容静态化 1.9 更换Web服务器软件 1.10 页面组件分离 1.11 合理部署服务器 1.12 使用负载均衡 1.1

《构建高性能 Web站点》笔记

书名:构建高性能Web站点 出版社: 电子工业出版社 ISBN:9787121170935 一  绪论 等待的时间: (1) 数据在网络上的传输时间 (2) 站点服务器处理请求并生成回应数据的时间 (3) 浏览器本地计算和渲染的时间 二  数据的网络传输 数据如何发送 (1) 应用程序通过系统函数库接口(如send)向内核发出系统调用 (2) 系统内核将数据从用户态内存区复制到由内核维护的内核缓冲区(这块地址空间的大小有限,需要发送的数据以队列的形式进入) (3) 内核通知网卡来取数据,网卡将数

《构建高性能web站点》随笔 无处不在的性能问题

前言– 追寻大牛的足迹,无处不在的“性能”问题. 最近在读郭欣大牛的<构建高性能Web站点>,读完收益颇多.作者从HTTP.多级缓存.服务器并发策略.数据库.负载均衡.分布式文件系统多个方面娓娓道来,洋洋洒洒,甚是精彩,想来让人心旷神怡.     但“纸上得来终觉浅,绝知此事要躬行”,要消化本书的内容,绝不是一件简单的事情,更重要的还是实践.在实践和学习的过程中,我会把自己的经验和感悟分享出来,一方面权当做笔记,另一方面,对于后来的童鞋,希望能提供一丝一毫的帮助,不胜欣慰.     由于是读书

学习笔记大型《构建高性能web站点》

吞吐率 ab -n1000 -c 100 http://new.dangdang.com/ 测试结果重点关注:1个Requests per second,2个Time per request 影响吞吐率的因素: 并发策略.I/O模型.I/O性能.CPU核数.程序本身逻辑复杂度 1.CPU并发计算 系统负载: cat proc/loadavg 结果:0.00 0.00 0.00 1/130 12041 左边三个数字代表1.5.15分钟的系统负载,数字越小,系统响应速度越快 学习笔记大型<构建高性能

构建高性能Web站点(修订版)笔记

构建高性能Web站点(修订版)2012.6 p14 '反馈机制':逐包确认 --> 小batch连续发送 一定需要全局编址吗?(可以使用邻居路由+端到端IBE) 电磁波速度:铜线中电信号2.3*10^8,光纤约2*10^8(全反射增加了传输距离) 系统负载:/proc/loadavg 上下文切换:Nmon IOWait(注意一点:磁盘IO是串行的!) 减少系统调用... ZeroCopy?AIO? strace:每次请求都要检测.htaccess?(哦,设置了AllowOverride all)

读书笔记-构建高性能Web站点

基本概念 带宽:通常说的带宽比如8M带宽,是指主机与互联网运营商的交换机之间的数据传输速度,因为数据链路层的流量是通过控制接收方实现的.而百兆网卡则是指网卡的发送速度为100Mbit/s,则是指网卡发送数据的速度 吞吐率:单位是reqs/s,指服务器的并发能力,就是单位时间内服务器处理的请求数.最大吞吐率是指单位时间内服务器能够处理的最大请求数.通常使用压力测试的方法通过模拟足够数目的并发用户数,分别连续发送一定的Http请求,并统计测试持续的总时间,计算出基于这种压力下的吞吐率,即为一个平均计

读《构建高性能Web站点》服务器并发处理能力 - 2

系统调用 进程有两种运行模式:用户态和内核态.进程通常在用户态,这时可以使用CPU和内存,而当进程需要对硬件外设进行操作的时候(如读取磁盘文件.发送网络数据),就必须切换到内核态,当在内核态的任务完成后,进程又切回到用户态. 由于系统调用涉及进程从用户态到内核态的切换,导致一定的内存空间交换,这也是一定程度上的上下文切换,所以系统调用的开销通常是比较昂贵的. 减少不必要的系统调用,也是Web服务器性能优化的一个方面. 内存分配 Apache在运行时的内存使用量是非常惊人的,这主要归咎于它的多进程

构建高性能web站点-阅读笔记(一)

看完前9章,也算是看完一半了吧,总结一下. 郭欣这个名字或许并不响亮,但是这本书写的确实真好!百度一下他的名字也能够看到他是某些公司的创始人和投资者,当然他本人必定是大牛无疑. 从网页的动静分离到网络带宽限制,然后是页面缓存.浏览器缓存,web服务器缓存,再到反向代理,web应用分离,整个流程下来厘清了架构web的所有层面,可以说到目前为止是我读过的最好的一本web架构书.书中都是一些概念和经验之谈,无法具体总结,也就只能写个总结吧,以表示自己在读或者读过.

读《构建高性能Web站点》服务器并发处理能力 - 1

一台Web服务器在单位时间内能处理的请求越多越好,这也成了Web服务器的能力高低所在,它体现了我们常说的"服务器并发处理能力". 吞吐量 Web服务器的并发处理能力,一般使用单位时间内服务器处理的请求数来描述其并发能力,习惯称其为吞吐率(Throughput),单位是"reqs/s". 并发用户数 人们常常把并发用户数和吞吐率混淆,实际上,它们并不是一回事,吞吐率是指在一定并发用户数的情况下,服务器处理请求能力的量化体现:并发用户数就是指在某一时刻同时向服务器发送请