构建高可用web站点学习(二)

web站点的缓存学习

缓存在web应用里面十分常见,也有各种各样的缓存,从请求开始一直到代码处理的阶段都可以采取缓存。下面就逐一介绍:

一、客户端缓存(浏览器和http方面)

  前端页面缓存主要遵循http协议和客户端

如果响应头信息告诉缓存器不要保留缓存;请求信息需要认证或者安全加密;一个缓存的副本如果含有以下信息,内容将会被认为足够新:含有完整的过期时间和寿命控制头信息,并且内容仍在保鲜期内。浏览器已经使用过缓存副本,并且在一个会话中已经检查过内容的新鲜度。

Expires(过期时间)属性是http控制缓存的基本手段。静态图片

Cache-Control  : Last-Modified:当客户端第二次请求此url时,浏览器会向服务器传送If-Modified-Since报头,如果服务器端的资源没有变化,则自动返回304,内容为空。 Etag和Last-Modified都起到文档唯一性标识的作用。

打开新窗口,如果指定cache-control的值为private、no-cache、must-revalidate,那么打开新窗口访问时都会重新访问服务器。而如果指定了max-age值,那么在此值内的时间里就不会重新访问服务器,例如:Cache-control: max-age=5 表示当访问此网页后的5秒内再次访问不会去服务器。在地址栏回车 如果值为private或must-revalidate,则只有第一次访问时会访问服务器,以后就不再访问。如果值为no-cache,那么每次都会访问。如果值为max-age,则在过期之前不会重复访问。按后退按扭 如果值为private、must-revalidate、max-age,则不会重访问,而如果为no-cache,则每次都重复访问。按刷新按扭 无论为何值,都会重复访问。

二、Web服务器缓存

  在Apache,Nginx中开启缓存模块,服务器缓存的原理就是一个URL在一段较长的时间内对应一个唯一的内容,比如静态内容或者更新不太频繁的动态内容,一旦将内容缓存后,下次web服务器便可以在收到请求后立即拿出事先缓存好的响应内容并返回给浏览器

还有像Apache可以使用APC opcode cache缓存PHP的动态内容的方案。这里就不细说了。

三、反向代理缓存

  首先说明何为反向代理(Reverse Proxy):反向代理:让Internet上的其他用户可以访问局域网内的资源,使用的代理服务器即为反向代理器

  反向代理的作用除了缓存,还有就是负载均衡。负载均衡在后面还会说到。这里主要讲的是基于反向代理的缓存。在这方面Varnish和Nginx都做得很不错。(Varnish是基于内存进行缓存,利用二叉堆管理缓存文件,可达到积极删除目的,Nginx是基于硬盘cache)一般用法是将Nginx运行在Apache服务器之前。监听所有请求,按需将请求转发给Apache。

  反向代理服务器正是通过修改流经它的数据的HTTP头信息来达到缓存的目的的,如一些静态页面等。而Nginx一般做Cache有下面几种方法:

  1:这个办法是把nginx的404错误定向到后端,然后用proxy_store把后端返回的页面保存。

  2:也是利用proxy_store,这里利用if判断cache目录是否有文件,没有的话从后端取,取回来后发送给用户并且自身用proxy_store保存起来

  #这2种办法其实原理都差不多,只是方法不同,都是使用proxy_sore把数据保存起来,这种办法在准确定义上不能算是cache,只能算是镜像-mirror功能,因为其没有内建机制定时删除cache,等于是永远的静态保存,所以这方案适合基本不会变化的数据,更详细的说明请看下面详细介绍这2种cache的做法和介绍

  3:基于memcached的缓存(第四点就会提到)

  4:新版本nginx支持真正的proxy_cache模块。

    #proxy_cache从nginx-0.7.44版开始,nginx支持了类似squid较为正规的cache功能,这个缓存是把链接用md5编码hash后保存。

  5:第三方插件。

四、第三方缓存

  当你学习Web的时候,经常会说Web的性能瓶颈出现在数据库上(这句话也不一定是正确的),解决的办法比较好的一个就是搭建一个数据库前端的cache来减少数据库的访问次数。

  Memcached篇:Memcached是一个免费开源的、高性能的、具有分布式内存对象的缓存系统。准备以一下几个方面来说一下它是如何缓存的,也是对一些操作系统知识的巩固:

  (1)基于libevent的事件处理

     libevent 是一个事件触发的网络库,适用于windows、linux、bsd等多种平台,内部使用select、epoll、kqueue等系统调用管理事件机 制。著名的用于apache的php缓存库memcached据说也是libevent based,而且libevent在使用上可以做到跨平台,如果你将要开发的应用程序需要支持以上所列出的平台中的两个以上,那么强烈建议你采用这个库,即使你的应用程序只需要支持一个平台,选择libevent也是有好处的,因为它可以根据编译/运行环境切换底层的事件驱动机制,这既能充分发挥系统的性能,又增加了软件的可移植性。它封装并且隔离了事件驱动的底层机制,除了一般的文件描述符读写操作外,它还提供有读写超时、定时器和信号回调,另外,它还允许为事件设定不同的优先级,当前版本的libevent还提供dns和http协议的异步封装,这一切都让这个库尤其适合于事件驱动应用程序的开发。(摘抄于libevent介绍)有兴趣的可以去看看具体源码实现。

  (2)内置的内存管理方式

    Memcached利用Slab Allocation的工作机制: slab(Slab Allocation)的设计理念是基于对象缓冲的,基本想法是避免重复大量的初始化和清理操作。slab主要可以用于频繁非配释放的内存对象。替代malloc/free。

Memcached中内存分配机制主要理念

    1.先为分配响应的大块内存,再在上面进行无缝小对象填充

    2.懒惰检测机制,Memcached不花过多的时间在检测各个item对象是否超市,当get获取数据时,才检查item对象是否应该删除,

    3.懒惰删除机制,在memcached中删除一个item对象的时候,并不是从内存中释放,而是单单的进行标记处理,再将其指针放入slot回放插槽,下次分配的时候直接使用。

    内存不足时,slab采用LRU算法淘汰不常用item

    在 memcached 运行过程中,要把一个 item 调入内存,但内存已无空闲空间时,为了保证程序能正常运行,系统必须从内存中调出一部分数据,送磁盘的对换区中。但应将哪些数据调出,须根据一定的算法来确定。通常,把选择换出数据(页面)的算法称为页面置换算法(Page Replacement Algorithms)。 Memcached 采用最近最久未使用(LRU)置换算法,是根据数据(页面)调入内存后的使用情况进行决策的。由于无法预测各页面将来的使用情况,只能利用“最近的过去”作为“最近的将来”的近似,因此,LRU置换算法是选择最近最久未使用的页面予以淘汰。当内存不足时,memcached 会从 slab各个 class 中的双向链表的尾部开始检测,即最近最久未使用的页面,往前一直寻找合适的 item 予以淘汰。所以该 LRU 算法为 slab 局部 class 淘汰的机制。但是在一些特定情形也会可能引起一些不必要的麻烦,可以在运行时加入”-M”参数禁止该算法。

  (3)分布式

    增加多台Memcached服务器,可以把访问的压力分配到各个不同的服务器上,由于各个Memcached服务器之间互相不通信,都是独立的存取数据,不共享任何信息。所以通过对客户端的设计,让Memcached具有分布式,支持    海量缓存和大规模应用。。memcached分布式算法由客户端API程序决定和实现的,(api根据存储用的key以及已知的服务器列表,根据key的hash计算将指定的key存储到对应的服务器列表上),这种分布式是memcached的最    大特点。

    起初算法:根据余数计算分散。

    机制:键值HashCode / 服务器节点数目 =(求余) 服务器位置。【哈希原理: 两个集合间的映射关系函数,在我们通常的应用中基本上可以理解为 在集合A(任意字母数字等组合,此处为存储用的key)里的一条记录去查找集合B(如0-2^32)中的对应记录。(题外话:md5的碰撞或者说冲突其实 就是发生在这里,也就是说多个A的记录映射到了同一个B的记录)】当选择的服务器无法连接时,则将连接次数添加到键值后,再计算哈希值并再次尝试 (Rehash)连接选择的服务器。

    这种方法很好,但是当增删服务器时,缓存的命中率的确很失败,大概降低到23%。web应用中,增删缓存服务器瞬间,缓存效率会急剧下降,负载会突然集中到数据库服务器。于是,新的事物诞生了。

    优化后的算法:一致性哈希(Consistent Hashing)

    首先求出每个服务节点的hash,并将其配置到一个0~2^32的圆环(continuum)区间上。其次使用同样的方法求出你所需要存储的key的hash,也将其配置到这个圆环(continuum)上。

    然后从数据映射到的位置开始顺时针查找,将数据保存到找到的第一个服务节点上。如果超过2^32仍然找不到服务节点,就会保存到第一个memcached服务节点上。

    首先求出memcached服务器节点的哈希值,并将其配置到0~2的32次方的环上,然后用同样的方法求出数据键值的哈希值并映射到环上,然后从数据被映射到环的位置开始顺时针查找服务器位置,将数据保存在第一个找到的服务器上。如果没有找到则保持在第一个服务器上。

    

  Redis篇:

    Redis不仅仅可以作为缓存中间件,还有其他很多的用途,当然,它的许多特性也特别吸引我,Redis 是完全开源免费的,遵守BSD协议,先进的key - value持久化产品。它通常被称为数据结构服务器,因为值(value)可以是 字符串(String), 哈希(Map), 列表(list), 集合(sets) 和 有序集合(sorted sets)等类型。主要和Memcached不一样的地方就是提供更多的数据类型和当作为分布式的时候,Redis服务器之间可以相互通信。这里对于Redis的数据类型不作详细描述,毕竟关于Redis的资料也很多。我比较感兴趣的Redis是作为nosql服务器的一个优点:内存数据的持久化

    内存快照是默认的持久化方式:将内存中的数据以快照方式写入二进制文件中,默认文件名为dump.rdb、客户端用save或者bgsave命令告诉Redis做一次内存快照。Redis由单线程处理所有请求,执行save命令可能阻塞其他客户端请求,从而导致不能快速响应请求

    下面介绍详细的快照保存过程

      1.redis调用fork,现在有了子进程和父进程。

      2. 父进程继续处理client请求,子进程负责将内存内容写入到临时文件。由于os的写时复制机制(copy on write)父子进程会共享相同的物理页面,当父进程处理写请求时os会为父进程要修改的页面创建副本,而不是写共享的页面。所以子进程的地址空间内的数 据是fork时刻整个数据库的一个快照。

      3.当子进程将快照写入临时文件完毕后,用临时文件替换原来的快照文件,然后子进程退出。

client 也可以使用save或者bgsave命令通知redis做一次快照持久化。save操作是在主线程中保存快照的,由于redis是用一个主线程来处理所有 client的请求,这种方式会阻塞所有client请求。所以不推荐使用。另一点需要注意的是,每次快照持久化都是将内存数据完整写入到磁盘一次,并不 是增量的只同步脏数据。如果数据量大的话,而且写操作比较多,必然会引起大量的磁盘io操作,可能会严重影响性能。

另外由于快照方式是在一定间隔时间做一次的,所以如果redis意外down掉的话,就会丢失最后一次快照后的所有修改。如果应用要求不能丢失任何修改的话,可以采用aof持久化方式。

      下面介绍Append-only file

      aof 比快照方式有更好的持久化性,是由于在使用aof持久化方式时,redis会将每一个收到的写命令都通过write函数追加到文件中(默认是 appendonly.aof)。当redis重启时会通过重新执行文件中保存的写命令来在内存中重建整个数据库的内容。当然由于os会在内核中缓存 write做的修改,所以可能不是立即写到磁盘上。这样aof方式的持久化也还是有可能会丢失部分修改。不过我们可以通过配置文件告诉redis我们想要 通过fsync函数强制os写入到磁盘的时机。有三种方式如下(默认是:每秒fsync一次)

      appendonly yes              //启用aof持久化方式

      # appendfsync always      //每次收到写命令就立即强制写入磁盘,最慢的,但是保证完全的持久化,不推荐使用

      appendfsync everysec     //每秒钟强制写入磁盘一次,在性能和持久化方面做了很好的折中,推荐

      # appendfsync no    //完全依赖os,性能最好,持久化没保证

      aof 的方式也同时带来了另一个问题。持久化文件会变的越来越大。例如我们调用incr test命令100次,文件中必须保存全部的100条命令,其实有99条都是多余的。因为要恢复数据库的状态其实文件中保存一条set test 100就够了。为了压缩aof的持久化文件。redis提供了bgrewriteaof命令。收到此命令redis将使用与快照类似的方式将内存中的数据 以命令的方式保存到临时文件中,最后替换原来的文件。具体过程如下

      1. redis调用fork ,现在有父子两个进程

      2. 子进程根据内存中的数据库快照,往临时文件中写入重建数据库状态的命令

      3.父进程继续处理client请求,除了把写命令写入到原来的aof文件中。同时把收到的写命令缓存起来。这样就能保证如果子进程重写失败的话并不会出问题。

      4.当子进程把快照内容写入已命令方式写到临时文件中后,子进程发信号通知父进程。然后父进程把缓存的写命令也写入到临时文件。

      5.现在父进程可以使用临时文件替换老的aof文件,并重命名,后面收到的写命令也开始往新的aof文件中追加。

      需要注意到是重写aof文件的操作,并没有读取旧的aof文件,而是将整个内存中的数据库内容用命令的方式重写了一个新的aof文件,这点和快照有点类似。

      fromhttp://www.cnblogs.com/xhan/archive/2011/02/04/1949151.html

  MongoDB篇:

    稍后总结。

五、数据库(Mysql)缓存

  数据库像Mysql有很多性能优化的方案,这里主要研究一下数据库的缓存,比如说查询缓存:对于相同类型的SQL就可以跳过SQL解析和执行计划生成阶段。MySQL在某些场景下也可以实现,但是“MySQL还有另一种不同的缓存类型:缓存完整的SELECT 查询结果。几个问题:

  1.MySQL如何判断缓存命中

缓存存放在一个引用表中,通过一个哈希值引用。这个哈希值包括了如下因素,即查询本身、当前要查询的数据库、客户端协议的版本等。如果查询中包含任何用户自定义函数、存储函数、用户变量、临时表、mysql库中的系统表,或者任何包含列级别权限的表,都不会被缓存。

有些问题:打开查询缓存对读和写操作都会带来额外的消耗:读查询开始之前必须先检查是否命中缓存,写缓存。对查询缓存操作是一个加锁排他操作,如果查询缓存使用了很大量的查询结果,那么缓存失效操作时整个系统都可能会僵死一会儿。

   2.查询缓存如何使用内存

除了查询结果之外,需要缓存的还有很多别的维护相关的数据。这和文件系统有些类似:需要一些内存专门用来确定哪些内存目前是可用的、哪些已经用掉、哪些用来存储数据表和查询结果之前的映射、哪些用来存储查询字符串和查询结果。当有查询结果需要缓存的时候,MySQL先从大的空间块中申请一个数据块用于存储结果。这个数据块需要大于参数query_cache_min_res_unit的配置。因为需要先锁住空间块,然后找到合适大小数据块,相对来说,分配内存块是一个非常慢的操作。当需要缓存一个查询结果的时候,它先选择一个尽可能小的内存快。MySQL自己管理一大块内存。不依赖操作系统的内存管理.

  3.什么情况下查询缓存能发挥作用

跟服务器压力模型有关:一个判断缓存的直接数据是命中率:要么增加Qcache_hits的值,要么增加Com_select的值。

   4.通用查询缓存优化

(1)用多个小表代替一个大表对查询缓存有好处。更合适的粒度。

(2)批量写入时只需要做一次缓存失效

(3)控制缓存空间的大小

(4)SQL_CACHE控制某个语句是否缓存

  小结:除了上面说的缓存方法,其实还有很多缓存手段,比如说模版缓存,文件缓存等等,还有像java语言中的对象缓存,Session缓存等等都是比较期待的能提升访问速度的手段。有人说那全部用上不就好了吗?其实什么东西都是有利弊的,要根据实际情况来判断是否采取哪种手段来进行缓存。上面还有很多不足之处,我也会继续学习和完善的。

时间: 2024-10-29 01:00:23

构建高可用web站点学习(二)的相关文章

构建高可用web站点学习--前言

前言:本人对于提高web站点的访问量等的有很浓厚的兴趣,也学习了将近一年的时间,希望能总结点东西,虽然很多东西都是从书籍和资料中学习的,而不是原创,但是这是我总结的一点感悟和进行的分类吧. 本系列文章大多为谈论一些基本思想.至于代码实现和服务器的搭建和配置,可能不会涉及到,不过其中会涉及到一些基本的参数配置,所以要求对服务器的搭建和配置有基本的了解.因为搭建和配置的资料网上和书本都 很多,我在这里就能不说就不说了.免得影响文章的长度和关注的焦点. 目录结构: (一)单个服务器如何处理请求 (二)

构建高可用web站点学习(一)

单个服务器如何处理请求 web服务器最简单的形式就是一个程序,它侦听HTTP请求,在收到一个HTTP请求之后做出回复.当然在接收请求后服务器所做的东西是我们关注的焦点.在下文中也会提及到node是如何简单的实现一个web服务器. 常用的是Apache,tomcat等服务器解决web请求.现在更多的人会使用Nginx解决web请求,这也有一定的道理.本文主要研究各服务器比较成熟的多任务处理方式.下文会详细的提到. Apache: 说到web应用平台,基本上第一反应都是LAMP这个经典的平台.其中A

构建高可用web站点学习(三)

分布式的构建 做为网站访问的生命线(数据访问),当然也可以采用分布式的方法来减轻单台服务器的访问压力.之前有讲过Memcached的分布式,但是Memcached服务器互不通信,所以我们也提过redis的主从分布.这篇文章主要的就是关注分布式服务器的一些基本思想. 数据库的主从分布:这里我以Mysql为例,当Mysql需要向外扩展的时候的策略则划分为三个部分:复制.拆分以及数据分片 ,而主从分布最主要关注的问题就是主库和从库间的同步.原理如下图: 大致描述一下过程:从服务器的IO线程从主服务器获

构建高可用web站点(五)

数据库是web站点中重要的应用,放在第四篇是因为之前来不及总结的原因,在之前的文章我看到了无论是Mysql或者是nosql的一些缓存和分布式一些比较扩展性的功能.但是对于单个数据库来说,它的优化也是我们学习的重点.现在我就来简单说说我自己总结的一些东西. 关于Mysql:Mysql是web站点中应用很广泛的关系型数据库.这一块的东西也是有很多值得学习的东西,介绍的书籍也很多,比如<高性能Mysql><Mysql性能调优和架构设计><Mysql技术内幕:InnoDB引擎>

构建高可用web站点(四)

首先我们来了解负载均衡的概念:英文名称为Load Balance,其意思就是将负载(工作任务)进行平衡.分摊到多个操作单元上进行执行,例如Web服务器.FTP服务器.企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务. 其实负载均衡也是一个很庞大的知识体系.我也不是学习得很完善,这里就是把我自己学过的自我总结一下.分为一下几个方面: (1)基于DNS的负载均衡 学过网络的都知道,DNS的作用主要是将域名映射为IP地址.我们可以采取多个A记录的方式来让别人访问这个网站是解析到一个IP地

Centos6下nginx+keepalived构建高可用web集群

1)拓扑描述: 2) nginx的安装准备 pcre:兼容的正则表达式,nginx也要支持伪静态 # yum -y install pcre pcre-devel # yum -y install openssl* # mkdir -p /application/nginx1.6.2 # ln -s /application/nginx1.6.2 /application/nginx 3) 安装nginx # cd /usr/local/src # tar xf nginx-1.6.2.tar.

构建高可用linux服务器学习笔记

显示物理CPU个数的命令cat /proc/cpuinfo | grep "physical id" | sort | uniq | wc -l 显示每个物理CPU中core的个数(即核数)的命令如下所示: cat /proc/cpuinfo | grep "cpu cores" | uniq 显示逻辑CPU的个数的命令如下所示:物理个数*核数 查看硬盘的I/O性能iostat -d -k -x 1 5如果%util接近100%,则说明产生的I/O请求太多,I/O系

构建高可用的LVS负载均衡集群 入门篇

一.LVS简介 LVS是Linux Virtual Server的简称,也就是Linux虚拟服务器, 是一个由章文嵩博士发起的自由软件项目,它的官方站点是www.linuxvirtualserver.org.现在LVS已经是 Linux标准内核的一部分,在Linux2.4内核以前,使用LVS时必须要重新编译内核以支持LVS功能模块,但是从Linux2.4内核以后,已经完全内置了LVS的各个功能模块,无需给内核打任何补丁,可以直接使用LVS提供的各种功能. LVS 集群采用IP负载和基于内容请求分

Centos 7搭建LVS+Keepalived高可用Web服务群集

一.LVS+Keepalived高可用群集 Keepalived的设计目标是构建高可用的LVS负载均衡群集,可以调用ipvsadm工具来创建虚拟服务器.管理服务器池,而不仅仅用作双机热备.使用Keepalived构建LVS群集更加简便易用,主要优势体现在:对LVS负载调度器实现热备切换,提高可用性:对服务器池中的节点进行健康检查,自动移除失效节点,恢复后再重新加入. 在基于LVS+Keepalived实现的LVS群集结构中,至少包括两台热备的负载调度器,三台以上的节点服务器.此博客将以DR模式的