nginx常用配置3

## 六、浏览器本地缓存配置

语法:expires 60 s|m|h|d

```
动静分离效果:

server {
listen 80;
server_name localhost;
location / {
root html;
index index.html;
}

location ~ \.(png|jpg|js|css|gif)$ {
root html/images;
expires 5m;
}
}
```

## 七、Gzip压缩策略

浏览器请求 -> 告诉服务端当前浏览器可以支持压缩类型->服务端会把内容根据浏览器所支持的压缩策略去进行压缩返回

->浏览器拿到数据以后解码; 常见的压缩方式:gzip、deflate 、sdch

Gzip on|off 是否开启gzip压缩
Gzip_buffers 4 16k

设置系统获取几个单位的缓存用于存储gzip的压缩结果数据流。4 16k代表以16k为单位,安装原始数据大小以16k为单位的4倍申请内存。

Gzip_comp_level[1-9]
压缩级别, 级别越高,压缩越小,但是会占用CPU资源
Gzip_disable #正则匹配UA 表示什么样的浏览器不进行gzip
Gzip_min_length 开始压缩的最小长度(小于多少就不做压缩)

Gzip_http_version
1.0|1.1 表示开始压缩的http协议版本
Gzip_proxied (nginx 做前端代理时启用该选项,表示无论后端服务器的headers头返回什么信息,都无条件启用压缩)
Gzip_type
text/pliain,application/xml 对那些类型的文件做压缩 (conf/mime.conf)
Gzip_vary
on|off 是否传输gzip压缩标识

```
server {
listen 80;
server_name localhost;
gzip on;
gzip_buffers 4 16K;
gzip_comp_level 7;
gzip_min_length 500;
gzip_types text/css text/xml text/javascript;

location / {
root html;
index index.html;
}

location ~ \.(png|jpg|js|css|gif)$ {
root html/images;
expires 5m;
}
}
```

**注意点**

1. 图片、mp3这样的二进制文件,没必要做压缩处理,因为这类文件压缩比很小,压缩过程会耗费CPU资源

2. 太小的文件没必要压缩,因为压缩以后会增加一些头信息,反而导致文件变大

3. Nginx默认只对text/html进行压缩 ,如果要对html之外的内容进行压缩传输,我们需要手动来配置

## 八、Nginx反向代理

location {proxy_pass}

```
server {
listen 80;
server_name www.gerry.com;

location =/s {
proxy_pass http://www.baidu.com;
}
}
```

Proxy_pass 既可以是ip地址,也可以是域名,同时还可以指定端口

Proxy_pass指定的地址携带了URI,看我们前面的配置【/web】,那么这里的URI将会替换请求URI中匹配location参数部分;如上代码将会访问到http://www.baidu.com/web

## 九、负载均衡

*upstream*是Nginx的HTTP Upstream模块,这个模块通过一个简单的调度算法来实现客户端IP到后端服务器的负载均衡

### 1、Upstream常用参数介绍

**语法:**server address [parameters]

其中关键字server必选。
address也必选,可以是主机名、域名、ip或unix socket,也可以指定端口号。
parameters是可选参数,可以是如下参数:

? **down**:表示当前server已停用

? **backup**:表示当前server是备用服务器,只有其它非backup后端服务器都挂掉了或者很忙才会分配到请求

? **weight**:表示当前server负载权重,权重越大被请求几率越大。默认是1

**max_fails**和**fail_timeout**一般会关联使用,如果某台server在fail_timeout时间内出现了max_fails次连接失败,那么Nginx会认为其已经挂掉了,从而在fail_timeout时间内不再去请求它,fail_timeout默认是10s,max_fails默认是1,即默认情况是只要发生错误就认为服务器挂掉了,如果将max_fails设置为0,则表示取消这项检查。

```
upstream tomcatserver {
server 192.168.3.220:8080;
server 192.168.3.222:8080 weigth=4;
}
```

### 2、ups支持的调度算法

在做负载均衡前,我们首先需要定义一个 Server 组用来表示所有存在的后台服务:

```
http {
upstream backend {
server backend1.example.com weight=5;
server backend2.example.com;
server 192.0.0.1 backup;
}
}
```

然后,我们需要把流量重定向到上一步定义的 backend 上去, 我们可以通过指定 proxy_pass 的值来完成这一操作:

```
upstream backend {
server backend1.example.com;
server backend2.example.com;
server 192.0.0.1 backup;
}

server {
location / {
proxy_pass http://backend;
}
}
}
```

这里我们将所有的流量重定向到 [http://backend](https://link.juejin.im?target=http%3A%2F%2Fbackend) , 这将这个 NGINX 实例上的所有流量重定向到之前定义的 backend 上去。

### 负载均衡算法

当没有指定任何信息时, NGINX 默认使用了 Round Robin(轮询)算法来重定向流量。其实 NGINX 提供了多种算法来做负载均衡,下面我们来介绍一下:

### 1、Round Robin (轮询)

在没有指定 weight(权重) 的情况下,Round Robin 会将所有请求均匀地分发给所有后台服务实例:

```
upstream backend {
server backend1.example.com;
server backend2.example.com;
}
```

这里我们没有指定权重,所以两个后台服务会收到等量的请求。但是,当指定了权重之后,NGINX 就会将权重考虑在内:

```
upstream backend {
server backend1.example.com weight=5;
server backend2.example.com;
}
```

在 NGINX 中,weight 默认被设置为 1。这里我们用一开始的配置举例, [backend1.example.com](https://link.juejin.im?target=http%3A%2F%2Fbackend1.example.com) 的权重被设置为 5,另一个的权重没设置,所以是默认值 1。我们也没有设置轮询算法,所以这时候 NGINX 会以 5:1 的比例转发请求,即 6 个请求中, 5 个被放到了 [backend1.example.com](https://link.juejin.im?target=http%3A%2F%2Fbackend1.example.com) 上, 有一个被发到了 [backend2.example.com](https://link.juejin.im?target=http%3A%2F%2Fbackend2.example.com) 上。

### 2、Least Connections(最少连接算法)

在这个模式下,一个请求会被 NGINX 转发到当前活跃请求数量最少的服务实例上:

```
upstream backend {
least_conn;
server backend1.example.com;
server backend2.example.com;
}
```

我们用 least_conn 来指定最少连接优先算法, NGINX 会优先转发请求到现有连接数少的那一个服务实例上。

### 3、IP Hash (IP 哈希)

在 IP Hash 模式下,NGINX 会根据发送请求的 IP 地址的 hash 值来决定将这个请求转发给哪个后端服务实例。被 hash 的 IP 地址要么是 IPv4 地址的前三个 16 进制数或者是整个 IPv6 地址。使用这个模式的负载均衡模式可以保证来自同一个 IP 的请求被转发到同一个服务实例上。当然,这种方法在某一个后端实例发生故障时候会导致一些节点的访问出现问题。

```
upstream backend {
ip_hash;
server backend1.example.com;
server backend2.example.com;
}
```

如果某一台服务器出现故障或者无法进行服务,我们可以给它标记上 down,这样之前被转发到这台服务器上的请求就会重新进行 hash 计算并转发到新的服务实例上:

```
upstream backend {
server backend1.example.com;
server backend2.example.com;
server backend3.example.com down;
}
```

### 4、Generic Hash(通用哈希)

这个模式允许管理员自定义 hash 函数的输入,比如:

```
upstream backend {
hash $reqeust_uri consistent;
server backend1.example.com;
server backend2.example.com;
}
```

在这个例子中,我们以请求中所带的 url 为 hash 的输入。 注意到这里在 hash 那一行的最后加入了 consistent 这个关键词。这个关键词会使用一种新的 hash 算法 [ketama](https://link.juejin.im?target=https%3A%2F%2Fwww.last.fm%2Fuser%2FRJ%2Fjournal%2F2007%2F04%2F10%2Frz_libketama_-_a_consistent_hashing_algo_for_memcache_clients), 该算法会让管理员添加或删除某个服务实例的时候,只有一小部分的请求会被转发到与之前不同的服务实例上去,其他请求仍然会被转发到原有的服务实例上去。

### 5、Random (随机算法)

顾名思义,每个请求都被随机发送到某个服务实例上去:

```
upstream backend {
random;
server backend1.example.com;
server backend2.example.com;
server backend3.example.com;
server backend4.example.com;
}
```

Random 模式还提供了一个参数 two,当这个参数被指定时,NGINX 会先随机地选择两个服务器(考虑 weight),然后用以下几种方法选择其中的一个服务器:

```
1. least_conn: 最少连接数
2. least_time=header(NGINX PLUS only): 接收到 response header 的最短平均时间
3. least_time=last_byte(NGINX PLUS only): 接收到完整请求的最短平均时间
```

我们可以参考下面的一个例子:

```
upstream backend {
random two least_time=last_byte;
server backend1.example.com;
server backend2.example.com;
server backend3.example.com;
server backend4.example.com;
}
```

当环境中有多个负载均衡服务器在向后端服务转发请求时,我们可以考虑使用 Random 模式,在只有单个负载均衡服务器时,一般不建议使用 Random 模式。

### 6、Least Time (NGINX PLUS only)

这是一个 NGINX PLUS (NGINX 的付费版) 才有的模式,可以将请求优先转发给平均响应时间较短的服务实例,它也有三个模式:

```
1. header: 从服务器接收到第一个字节的时间
2. last_byte: 从服务器接收到完整的 response 的时间
3. last_byte inflight: 从服务器接收到完整地 response 的时间(考虑不完整的请求)
```

例子如下:

```
upstream backend {
least_time header;
server backend1.example.com;
server backend2.example.com;
}
```

## 总结

NGINX 提供了多种负载均衡模式,在实际使用中,需要根据实际业务需求去做尝试,分析日志来找到最适合当前场景的复杂均衡模式。

原文地址:https://www.cnblogs.com/xyj179/p/10708097.html

时间: 2024-10-11 17:56:37

nginx常用配置3的相关文章

Nginx常用配置实例(4)

Nginx作为一个HTTP服务器,在功能实现方面和性能方面都表现得非常卓越,完全可以与Apache相媲美,几乎可以实现Apache的所有功能,下面就介绍一些Nginx常用的配置实例,具体包含虚拟主机配置.负载均衡配置.防盗链配置以及日志管理等. 一. 虚拟主机配置实例 下面在Nginx中创建三个虚拟主机,需要说明的是,这里仅仅列出了虚拟主机配置部分. http { server { listen          80; server_name     www.domain1.com; acce

Nginx常用配置及优化安全

一个站点配置多个域名 server { listen 80; server_name demo.ct99.cn demo1.ct99.cn; } server_name 后跟多个域名即可,多个域名之间用空格分隔 一个服务配置多个站点 server { listen 80; server_name demo.ct99.cn; location / { root /home/project/pa; index index.html; } } server { listen 80; server_na

nginx常用配置系列-虚拟主机

本来准备详尽的出一份nginx配置讲解,但nginx功能配置繁多,平常使用中使用最多的一般有: 1. 虚拟主机配置 2. HTTPS配置 3. 静态资源处理 4. 反向代理 ================= 虚拟主机配置 ================= 先说虚拟主机配置,nginx的核心配置文件在nginx的安装目录下conf目录中(如果是CentOS通过yum安装则在/etc/nginx目录中) 在conf目录下创建vhost目录,方便管理虚拟主机的配置文件 mkdir vhost 以e

nginx常用配置系列-反向代理

接上篇,反向代理的原理与用途很多地方有讲,用文字说再多可能也表达不清楚,下面贴一张拓扑图,介绍下什么叫反向代理 以上图有两种情景 1. 访问者的客户端是 local ,要访问baidu的服务器,baidu的前台服务器本身不处理具体的业务,只是根据访问的数据类型,或者业务类型等(就是一些特定的规则,比如URL正则),将不同类的请求转发到不同的后端服务器,例如server1是静态资源的,server2是处理账户系统的等 2. 后端的每个server提供的服务完全相同,baidu的前台服务器根据后端每

nginx常用配置系列-静态资源处理

接上篇,nginx处理静态资源的能力很强,后端服务器其实也可以处理静态资源,比如tomcat,但把非业务类的单一数据交给后端处理显然效率比较低,还有一种场景是多个站点公用一套资源集时,通过nginx可以建立静态资源服务器,达到高效处理静态资源,下面直接看nginx如何处理静态资源: server { listen 80; server_name example.com; index index.html index.htm index.php index.do; #站点根目录 root /hom

nginx常用配置

1. 配置第二个虚拟主机 可以在nginx.conf 加一行 include  conf/vhosts/*.conf; 这样,我们就可以在 conf/vhosts目录下创建虚拟主机配置文件了. [[email protected] conf]# pwd/usr/local/nginx/conf[[email protected] conf]# mkdir vhosts [[email protected] conf]# cd vhosts/[[email protected] vhosts]# 

Apache、tomcat、Nginx常用配置合集

配置文件地址: Apache: /etc/httpd/conf/httpd.conf tomcat: /usr/local/tomcat/conf/server.xml Nginx  : /usr/local/nginx/conf/nginx.conf 开机启动文件:/etc/rc.d/rc.local 启动方式: Apache: service httpd start 启动 service httpd restart 重新启动 service httpd stop 停止服务 tomcat: 启

Nginx常用配置指令说明

注意:局部作用域的配置指令可覆盖全局作用域的配置指令 1.不在http响应头中显示Nginx的版本 # 可用于http{}配置块和server{}配置块server_tokens off; 2.索引文件 # 可用于http{}配置块和server{}配置块index index.html index.php; 3.是否允许目录浏览 # 可用于http{}配置块和server{}配置块autoindex on; 4.设置网站根目录 # 可用于http{}配置块和server{}配置块root "E

Nginx 常用配置模板

user root root; worker_processes auto; worker_rlimit_nofile 51200; events { use epoll; worker_connections 51200; multi_accept on; } http { include mime.types; default_type application/octet-stream; server_names_hash_bucket_size 128; client_header_buf