应如何取B/S的B端的IP

我们常讨论说要取真实IP,不同场景所谓的真实IP含义不一样。

如你要根据客户端IP去判断客户所在区域,那么要记录客户的出口IP,这里的出口IP才是你所谓的真实IP。

如你要判断多个客户端是不是同一个,那么需要同时使用外网IP和内网IP才能区分:

  因为若仅使用内网IP,不同的内网有相同的内网IP;

  若仅使用外网IP,同一个内网的出口(外网IP)是同一个。

以上明白后,我们继续看:

HTTP请求记录的IP从内网到外网所有网关的IP都会记录在Header里

内网的IP依次记录在HTTP_X_FORWARDED_FOR,按,;或空格隔开。最外面的IP记录在REMOTE_ADDR。所以根据您的需求去取舍吧。

var REMOTE_ADDR = Request.ServerVariables["REMOTE_ADDR"];
var HTTP_X_FORWARDED_FOR = Request.ServerVariables["HTTP_X_FORWARDED_FOR"];
时间: 2024-07-30 00:54:18

应如何取B/S的B端的IP的相关文章

PHP-客户端的IP地址伪造、CDN、反向代理、获取的那些事儿

外界流传的JAVA/PHP服务器端获取客户端IP都是这么取的: 伪代码: 1)ip = request.getHeader("X-FORWARDED-FOR") 可伪造,参考附录A 2)如果该值为空或数组长度为0或等于"unknown",那么: ip = request.getHeader("Proxy-Client-IP") 3)如果该值为空或数组长度为0或等于"unknown",那么: ip = request.getHe

【2017-05-21】WebForm跨页面传值取值、C#服务端跳转页面、 Button的OnClientClick属性、Js中getAttribute和超链接点击弹出警示框。

一.跨页面传值和取值: 1.QueryString - url传值,地址传值 优缺点:不占用服务器内存:保密性差,传递长度有限. 通过跳转页面路径进行传值,方式: href="地址?key=value&key=value"            用&可以实现传递多个值. 通过这种方式就把要传递的值传到要跳转的页面去了. 2.跨页面取值: 在跳转到的页面的C#代码服务端进行取值 用:  string value = Request["key"]; 二.

WebForm复合控件、跨页面传值取值、C#服务端跳转页面

1.RadioButtonList     单选集合 -属性:RepeatDirection:Vertical (垂直排布)/Horizontal (横向排布) RepeatLayout:Table (表格排布方式)/Flow (span排布方式) RepeatColumns:         设置为多少列. 每一个单选按钮都是一个ListItem对象,他有  Enable(是否可用).  selected(默认选中)  Text(显示的文本) Value(隐藏的值)属性 赋值:两种数据绑定方法

burpsuit抓取https包(pc端+安卓端)

该文转自ichunqiu论坛. 0x00 起因前言:burpsuit是一个渗透利器,相信各位大表哥们或多或少使用过它来抓包.http抓包是很简单的,https抓包的话,就多了证书信任的问题.因为在劫持https通信的时候,证书会变成burp的证书,原网站的证书出现问题,我们又不信任burp的证书的时候,浏览器就不能进行下一步的访问了,抓包就没办法继续进行.所以要抓https的数据包的时候,就是得把证书导入到浏览器的"信任目录",注意是"信任目录",而不是单纯的导入到

Scrapy爬取美女图片第三集 代理ip(上) (原创)

首先说一声,让大家久等了.本来打算520那天进行更新的,可是一细想,也只有我这样的单身狗还在做科研,大家可能没心思看更新的文章,所以就拖到了今天.不过忙了521,522这一天半,我把数据库也添加进来了,修复了一些bug(现在肯定有人会说果然是单身狗). 好了,废话不多说,咱们进入今天的主题.上两篇 Scrapy爬取美女图片 的文章,咱们讲解了scrapy的用法.可是就在最近,有热心的朋友对我说之前的程序无法爬取到图片,我猜应该是煎蛋网加入了反爬虫机制.所以今天讲解的就是突破反爬虫机制的上篇 代理

Scrapy爬取美女图片第三集 代理ip(下)

这是我的公众号获取原创保护的首篇文章,原创的肯定将支持我继续前行.现在写这篇文章的时间是晚上11:30,写完就回寝室休息了,希望更多的朋友与我一起同行(当然需要一个善良的妹子的救济). 好了,废话不多说,咱们进入今天的主题.上一篇咱们讲解了代理ip上篇,本篇咱们继续讲解代理ip.这一篇是上一篇的扩展和优化,主要的改动是使用scrapy来进行爬取代理ip,同时演示在scrapy框架中怎么使用mongodb数据库,最后使用多线程批量验证代理ip的合理性,大大加快了速度. 这次我选择的依然是http:

python - socket - client端指定ip和端口

问题描述: 在设备中有3个NI, ip分别为192.168.1.5/6/7.其中本端192.168.1.6同对端192.168.1.10建立了一个tunnel. 我希望测试tunnel连通性, 对端起一个socket server.本段作为client. 但是如果本端client直接连接,使用的源ip为192.168.1.5,端口随机. 我的迷惑在寻找一个指定ip的函数,在看了python的manual document中socket部分看了一遍后,没有找到这个函数. 随后我意识到我的一个思维误

返回服务端客户端IP

SELECT CONNECTIONPROPERTY('local_net_address') AS 服务端IP地址, CONNECTIONPROPERTY('local_tcp_port') AS 服务端口, CONNECTIONPROPERTY('client_net_address') AS 客户端IP地址

RouterOS的MikroTik脚本从DNS更新IPSEC端的IP地址

#Script for changing IPSEC address when DNS changes. #Script will iterate through all peers looking for addr_<dnsname> in the comments. It will then #check for changes in the IP for that DNS name if the ip address differs it will modify the peer #as