Wiresahrk抓包过滤技术

一、抓包过滤器
BPF语法(Berkeley Packet Filter)
类型:host、net、port
方向:src、dst
协议:ether、ip、tcp、udp、http、ftp等
逻辑运算符:&&与、||或、!非

src host 192.168.0.104 && dst port 80 #抓取源地址为192.168.0.104数据流量,目标端口为80
host 192.168.0.104 || host 192.168.0.105 #抓取主机地址为192.168.0.104和105数据
!broadcast #不抓取广播包

ether host E4:D5:3D:A2:64:95 #抓取主机MAC为E4:D5:3D:A2:64:95
ether src host E4:D5:3D:A2:64:95 #抓取源主机MAC为E4:D5:3D:A2:64:95

抓包过滤器操作步骤

二、流量不大的时候使用显示过滤器
IP地址:ip.addr、ip.src、ip.dst
端口过滤:tcp.port、tcp.srcport、tcp.flag.syn等

运算符:
1、and表示与,两个条件同时满足
2、or、||表示或,其中一个条件被满足
3、!、not表示忽略
less than表示小于< =
le < 表示小于等于
eq、== 表示等于
gt>表示大于
ge>=表示大于等于
!=、ne表示不等

显示过滤器操作步骤

1、过滤端口
tcp.port == 80 #不管端口是来源的还是目标的都显示
tcp.port eq 80 or udp.port eq 80
tcp.dstport == 80 #只显tcp协议的目标端口80
tcp.srcport == 80 #只显tcp协议的来源端口80
tcp.port >= 1 and tcp.port <= 80 #过滤端口范围

2、过滤MAC
太以网头过滤
eth.dst == E4:D5:3D:A2:64:95 #过滤目标MAC
eth.src eq E4:D5:3D:A2:64:95 #过滤来源MAC
eth.addr eq E4:D5:3D:A2:64:95 #过滤来源MAC和目标MAC都等于A0:00:00:04:C5:84的
!eth.addr==e4:d5:3d:a2:64:95 #忽略MAC

3、过滤IP
ip.src == 192.168.0.104 过滤ip为192.168.0.104

4、包长度过滤
udp.length == 26 这个长度是指udp本身固定长度8加上udp下面那块数据包之和
tcp.len >= 7   指的是ip数据包(tcp下面那块数据),不包括tcp本身
ip.len == 94 除了以太网头固定长度14,其它都算是ip.len,即从ip本身到最后
frame.len == 119 整个数据包长度,从eth开始到最后
eth —> ip or arp —> tcp or udp —> data

5、http模式过滤
http.request.method == GET
http.request.method == POST
http.request.uri == “/img/logo-edu.gif”
http contains “GET”
http contains “HTTP/1.”

6、DHCP
以寻找伪造DHCP服务器为例,在显示过滤器中加入过滤规则,
显示所有非来自DHCP服务器并且bootp.type==0x02(Offer/Ack/NAK)的信息:
bootp.type==0x02 and not ip.src==192.168.1.1

本篇文字不能涵盖wireshark所有功能只是为了基础者提供使用方式

时间: 2024-10-11 04:32:48

Wiresahrk抓包过滤技术的相关文章

基于Casperjs的网页抓取技术【抓取豆瓣信息网络爬虫实战示例】

CasperJS is a navigation scripting & testing utility for the PhantomJS (WebKit) and SlimerJS (Gecko) headless browsers, written in Javascript. PhantomJS是基于WebKit内核的headless browser SlimerJS则是基于Gecko内核的headless browser Headless browser: 无界面显示的浏览器,可以用于

Windows抓屏技术

Windows桌面共享中一些常见的抓屏技术 1. BitBlt   我想做Windows开发应该都知道这个API, 它能实现DC间的内容拷贝, 如果我们把源DC指定成Monitor DC或是桌面DC, 它就能实现抓屏功能. 对于通过这种方式的抓屏, 有2点需要特别提醒: a. 在XP下我们可以通过最后的拷贝标志来控制是否拷贝layered window, 只有SRCCPY表示拷贝内容不包含layered window, 如果是SRCCPY | CAPTUREBLT表示拷贝包括Layered wi

Python爬虫抓取技术的门道

web是一个开放的平台,这也奠定了web从90年代初诞生直至今日将近30年来蓬勃的发展.然而,正所谓成也萧何败也萧何,开放的特性.搜索引擎以及简单易学的html.css技术使得web成为了互联网领域里最为流行和成熟的信息传播媒介:但如今作为商业化软件,web这个平台上的内容信息的版权却毫无保证,因为相比软件客户端而言,你的网页中的内容可以被很低成本.很低的技术门槛实现出的一些抓取程序获取到,这也就是这一系列文章将要探讨的话题-- 网络爬虫 . 有很多人认为web应当始终遵循开放的精神,呈现在页面

关于wireshark的两个抓包过滤显示的基本语法

关于wireshark的两个基本语法 关于wireshark的两个基本语法 1. Capture Filters 语法:<Protocol name><Direction><Host(s)><Value><Logical operations><Expressions> 例子: tcp src port 443 --只抓取来源端口是443的tcp数据 not arp --不获取arp数据 port 80 --获取端口是80的数据,不指

python调用tcpdump抓包过滤

之前在linux用python脚本写一个抓包分析小工具,实在不想用什么libpcap.pypcap所以,简单来了个tcpdump加grep搞定.基本思路是分别起tcpdump和grep两个进程,进程直接通过pipe交换数据,简单代码例如以下: #! /usr/bin/python def tcpdump(): import subprocess, fcntl, os # sudo tcpdump -i eth0 -n -s 0 -w - | grep -a -o -E "Host: .*|GET

Wiresahrk抓包选项设置

第一步.选择抓包网卡 选择输出文件的位置以及采用什么方式创建文件 设置自动停止捕获数据包 增加列信息 对列内容设置对齐方式.编辑列.隐藏.删除列 修改时间模式

爬虫抓取技术

互联网数据很多,发现好内容并能持续不断的抓取是一项不简单的工作. 反反爬虫 爬虫的固定套路也就那么多,各种网站爬取策略的不同就在于网站的反爬虫机制不同,因此多作试验,摸清网站的反爬机制,是大规模爬虫的先行工作.爬虫与反爬虫是无休止的斗争,也是一个见招拆招的过程,但总体来说,以下方法可以绕过常见的反爬虫. 加上headers.这是最基础的手段.加上了请求头就可以伪装成浏览器,混过反爬的第一道关卡:反之,连请求头都不加,网站可以直接看出是程序在访问而直接拒绝.一般的网站加上User-Agent就可以

Wireshark 【OSI二层】抓包过滤规则和显示过滤规则实例

wireshark的主界面示例如下: 抓包规则正确:过滤器对话框显示为"绿色"抓包规则错误:过滤器对话框显示为"橘色" 抓包过滤器Ethernet过滤器(OSI第二层过滤器) #ether host 8c:ec:4b:69:a6:a7 抓取以太网流量的源或目的MAC地址(比如:ether host 00:00:5e:00:53:00) #ether dst host 8c:ec:4b:69:a6:a7 #ether dst 8c:ec:4b:69:a6:a7 抓取以

wiresherk抓包之旅

wireshark的原名是Ethereal,新名字是2006年起用的.当时Ethereal的主要开发者Gerald决定离开他原来供职的公司NIS,并继续开发这个软件.但由于Ethereal这个名称的使用权已经被原来那个公司注册,Wireshark这个新名字也就应运而生了. Wireshark是世界上最流行的网络分析工具.这个强大的工具可以捕捉网络中的数据,并为用户提供关于网络和上层协议的各种信息,也是网络工程师.信息安全工程师必备的一个工具之一. Wireshark下载:https://www.