nginx做前端转发,将php交给php-fpm处理(nginx+php-fpm)

  1. 下载wget http://nginx.org/packages/centos/6/noarch/RPMS/nginx-release-centos-6-0.el6.ngx.noarch.rpm

2. yum -y install nginx

3. service nginx restart

看到 WELCOME TO NGINX  说明安装成功!

4.yum -y install php-fpm

5.让nginx支持 php-fpm

找到/etc/nginx/conf.d/default.conf,打开编辑它

>vi /etc/nginx/conf.d/default.conf

去掉下面部分的注释用于支持php 脚本:

location ~ \.php$ {
   root      html;
   fastcgi_pass  127.0.0.1:9000;
   fastcgi_index index.php;
   fastcgi_param SCRIPT_FILENAME   /usr/share/nginx/html$fastcgi_script_name;
   include    /etc/nginx/fastcgi_params;

}

其中:

fastcgi_param SCRIPT_FILENAME /usr/share/nginx/html$fastcgi_script_name;

/usr/share/nginx/html指你的网站目录

include    /etc/nginx/fastcgi_params;

/etc/nginx/fastcgi_params; 要确保找对文件地址

6.

重启nginx服务

>/etc/init.d/nginx stop

>/etc/init.d/nginx start

启动php-fpm

>/usr/local/sbin/php-fpm

建立php测试文件

vi phpinfo.php

其内容:

<?php

phpinfo();

?>

浏览http://(你机器的ip地址)/phpinfo.php

如果出一个php的特色标志页面,就说明安装成功了。

时间: 2024-10-18 16:37:26

nginx做前端转发,将php交给php-fpm处理(nginx+php-fpm)的相关文章

nginx做前端反代负载均衡,后端httpd+tomcat

实验内容:用nginx做前端反代负载均衡后端httpd+tomcat 实验环境:物理机win7,虚拟机centos7: node1:172.18.11.111 httpd+tomcat node2:172.18.11.112 httpd+tomcat node3:172.18.11.113 nginx反代负载均衡 说明:httpd有两种方式与tomcat通信: (1)httpd可使用http模块反代tomcat,此时tomcat使用http链接器: (2)httpd还可使用ajp模块反代tomc

Nginx做前端Proxy时TIME_WAIT过多的问题

转自:http://www.cnblogs.com/QLeelulu/p/3601499.html 我们的DSP系统目前基本非凌晨时段的QPS都在10W以上,我们使用Golang来处理这些HTTP请求,Web服务器的前端用Nginx来做负载均衡,通过Nginx的proxy_pass来与Golang交互. 由于nginx代理使用了短链接的方式和后端交互的原因,使得系统TIME_WAIT的tcp连接很多: shell> netstat -n | awk '/^tcp/ {++state[$NF]}

nginx做域名转发和uri转发

一. 域名转发 www.qq.com ------> www.baidu.com nginx部署在192.168.1.100,本地配置host 192.168.1.100 www.qq.com ,浏览器输入www.qq.com会跳转到www.baidu.com # vi  /etc/nginx/nginx.conf user nginx;worker_processes 1; events { use epoll; worker_connections 10240; } http { serve

nginx做前端,后端web服务器无法获取真正客户机的ip,解决方法

由于,前端使用了nginx作为代理服务器,代理后端的web服务器和tomcat服务器,发现后端服务器的访问日志记录的客户端ip是nginx反代机器的ip,,所以,以下方法可以让后端服务器获取到真正的客户机ip. 首先在前端nginx服务器的server{  } 里添加: proxy_set_header        Host            $host; proxy_set_header        X-Real-IP       $remote_addr; proxy_set_hea

nginx + apache 做端口(转发)

nginx + apache 做端口转发 最近公司需要搭建一个内容管理系统,用的框架是dedecms,没有多考虑,首选的就是apache,因为公司的服务器是centos,所以一通折腾之后安装好了apache,php,以及各种模块及依赖库.      在安装好之后启动apache,发现无法启动,说是80端口被占用,经过netstat -anp | grep 80 之后发现是ngnix占用了该端口.因为这台服务器一直在使用nginx + unicorn 来跑rails项目,所以这个nginx是万万不

通过nginx部署前端代码实现前后端分离

实现前后端分离,可以让前后端独立开发.独立部署.独立单测,双方通过JSON进行数据交互. 对于前端开发人员来说,不用每次调试都需要启动或配置Java/Tomcat运行环境:对于后端开发人员来说 ,也不用在需要往JSP页面注入数据. 通过nginx来部署前端代码,可以帮助前端实现以下基本需求: 1.请求转发,解决请求跨域的问题 server { listen       7777; location /{ root   /Users/xiaoyun/git/someproject/dist; }

用Nginx做NodeJS应用的负载均衡

<用Nginx做NodeJS应用的负载均衡> 作者:chszs,转载需注明.博客主页:http://blog.csdn.net/chszs 负载均衡可以把用户的请求分摊到多个服务器上进行处理,从而实现了对海量用户的访问支持.负载均衡的架构如图所示: 对于复杂的Web应用来说,用Nginx做前端负载均衡是理所当然的事. 下面,我们用Nginx做NodeJS应用的负载均衡. 1.配置Nginx 修改nginx.conf: .... upstream sample { server 127.0.0.

Nginx做NodeJS应用负载均衡配置实例

这篇文章主要介绍了Nginx做NodeJS应用负载均衡配置实例,本文直接给出配置实例,需要的朋友可以参考下. 负载均衡可以把用户的请求分摊到多个服务器上进行处理,从而实现了对海量用户的访问支持.负载均衡的架构如图所示: 对于复杂的Web应用来说,用Nginx做前端负载均衡是理所当然的事.下面,我们用Nginx做NodeJS应用的负载均衡.1.配置Nginx修改nginx.conf: upstream sample { server 127.0.0.1:3000; server 127.0.0.1

Keepalived+Nginx提供前端负载均衡+主从双机热备+自动切换

原文链接:http://unun.in/linux/156.html 方案: 采用两台Nginx服务器作为前端,提供静态web内容,分发web请求,一主一从,Keepalived实现状态监测,保证 Nginx正常对外提供服务,即主Nginx服务进程死掉之后,keepalived能够通过脚本或者程序检测机制,将网站的访问切换到从Nginx上 来.后端的web应用服务器的监控由Nginx负责,keepalived只监控Nginx的健康状况. 性能:大约是硬件负载均衡器的10% 优势:虽然性能远弱于L