user_agent

Http Header中的User-Agent,user agent叫做用户代理,是Http协议中的一部分,属于头域的组成部分。它是一个特殊字符串头,是一种向访问网站提供你所使用的浏览器机器及其版本、操作系统及其版本、浏览器内核、等信息的标志。通过这个标志,用户所访问的网站可以显示不同的排版从而为用户提供更好的体验或者进行信息统计;例如,用手机访问谷歌和电脑访问是不一样的,这些事谷歌根据访问者的UA来判断的,UA可以进行伪装。

浏览器的UA字串的标准格式:浏览器标志(操作系统标志;加密登记标志;浏览器语言)渲染引擎标志版本信息。但哥哥卢兰奇有所不同

参考连接:http://blog.csdn.net/tianjinjianzhan/article/details/51702232

时间: 2024-10-24 03:26:40

user_agent的相关文章

apache 限制指定user_agent

有些user_agent 不是我们想要的,可以通过rewrite功能针对 %{HTTP_USER_AGENT} 来rewirete到404页,从而达到限制某些user_agent的请求. 配置如下 <IfModule mod_rewrite.c> RewriteEngine on RewriteCond %{HTTP_USER_AGENT}  ^.*Firefox/4.0* [NC,OR] RewriteCond %{HTTP_USER_AGENT}  ^.*Tomato Bot/1.0* [

Apache禁止指定user_agent

user_agent我们把它叫做浏览器标识,目前主流的浏览器有IE.chrome.Firefox.360.iphone上的Safari.Android手机上的.百度搜索引擎.Google搜索引擎等很多,每一种浏览器都有对应的user_agent. 配置如下: <IfModule mod_rewrite.c> RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^.*Firefox/4.0.* [NC,OR] RewriteCond %{HTTP_US

Apache禁止解析php 禁止指定user_agent Apache通过rewrite限制某个目录

<Directory /data/www/data> php_admin_flag engine off <filesmatch "(.*)php"> Order deny,allow Deny from all </filesmatch> </Directory> 禁止指定user_agent <IfModule mod_rewrite.c> RewriteEngine on RewriteCond %{HTTP_USER_

LNMP - nginx禁止指定user_agent

user_agent用来识别访问者的操作系统(包括版本号)浏览器(包括版本号)和用户个人偏好的代码比如我们的服务器网站,会被一些搜索引擎的爬虫程序访问,这对服务器压力造成了一定的影响.我们就可以根据爬虫的user_agent标示,来禁止掉它访问网站. 1.修改配置文件 [[email protected] ~]# vim /usr/local/nginx/conf/vhosts/test.conf server{    listen 80;    server_name www.test.com

2.4-nginx禁止指定user_agent

user_agent用来识别访问者的操作系统(包括版本号)浏览器(包括版本号)和用户个人偏好的代码 比如我们的服务器网站,会被一些搜索引擎的爬虫程序访问,这对服务器压力造成了一定的影响.我们就可以根据爬虫的user_agent标示,来禁止掉它访问网站. 可以用location语句,也可以不用.在全局插入以下代码. #全局配置黑名单,禁止访问网站 #   deny 127.0.0.1; #   deny 192.168.1.0/24; if ($http_user_agent ~* 'curl|b

LAMP-php解析与user_agent

一.限定某个目录禁止解析php 并不是所有的网站目录是需要解析php的,比如上传图片的目录等.禁止解析php能够防止被攻击者以php的方式搞破坏. 1.配置虚拟主机 [[email protected] ~]# vi /usr/local/apache2.4/conf/extra/httpd-vhosts.conf <VirtualHost *:80>     DocumentRoot "/data/www/123.com"     ServerName 123.com  

6_Apache 配置 之 禁止指用user_agent

user_agent:限制一些垃圾访问 在这个模块下面加,红色字体部分. [[email protected] logs]# vim /usr/local/apache2/conf/extra/httpd-vhosts.conf <IfModule mod_rewrite.c> ReWriteEngine on ReWriteCond  %{HTTP_HOST} ^www.aaa.com$ [or] ReWriteCond  %{HTTP_HOST} ^www.bbb.com$ ReWrite

apache‘禁止指定user_agent’ 和 ‘禁止用户通过浏览器访问某个目录’

禁止指定user_agent 本节介绍如何通过rewrite实现限制指定 user_agent 的请求: 即禁掉不想让那些引擎访问的请求 编辑虚拟主机配置文件 [[email protected] ~]# vim /usr/local/apache2/conf/extra/httpd-vhosts.conf (找到"域名301跳转的配置"即"rewrite的mod配置"内写入) RewriteCond %{HTTP_USER_AGENT} ^.*curl.* [NC

file_get_contents伪造user_agent curl设置useragent的方法

file_get_contents 和 curl 这俩强悍的函数,在远程抓取时候相当有用处.不过一些网站会根据来访ip是否携带user_agent来判断是正常的浏览器客户端还是机器.所以,我们的任务就是给他们伪造user_agent. file_get_contents伪造user_agent 方法如下: ini_set('user_agent','Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727

11.28 限定某个目录禁止解析php;11.29 限制user_agent;11.30,11.31 php相关配置(上下)

扩展: apache开启压缩  http://www.aminglinux.com/bbs/thread-5528-1-1.html apache2.2到2.4配置文件变更  http://www.aminglinux.com/bbs/thread-7292-1-1.html apache options参数  http://www.aminglinux.com/bbs/thread-1051-1-1.html apache禁止trace或track防止xss  http://www.aming