BurpSuite日志分析过滤工具,加快SqlMap进行批量扫描的速度

BurpLogFilter

一个python3写的,用于过滤BurpSuite日志的小程序

A python3 program to filter BurpSuite log file.

WHY?

为什么要写这个程序呢?强大的SqlMap支持使用BurpSuite的日志进行批量分析,但是BurpSuite的日志记录了所有走代理的流量,包括静态资源啊,重复的提交啊,这些都会影响SqlMap的分析效率。于是打算写一个小程序,可以做到:

  • 可以按照域名过滤请求
  • 可以自动过滤静态资源请求
  • 可以自动按照模式过滤URL,即相同URL和参数的请求,只会留其一(参数值对于SqlMap没有什么作用)

Why I wrote this program?The powerful SqlMap accepts a BurpSuite log file to make batch anaylze,but the log of BurpSuite record everything,includes static resources,duplicated submits,which will reduce the efficiency of the analyze.So I wrote this utility to make:

  • can filter with a hostname
  • can filter static resources automatic
  • can filter duplicated submits according to the url and params(the value of params is useless for SqlMap analyze)

USAGE

1.勾选BurpSuite输出日志(check the logging option)

2.使用burplogfilter.py过滤日志(use burplogfilter.py to filter log file)

Usage: python3 burplogfilter.py [options]

Options:
  -h                                  Show this showHelp
  -f filepath                         The BurpSuite log to analyze
  --host keyword, --host=keyword      Host name filter
  -v                                  Show debug message

Examples:
  python3 burplogfilter.py -f /tmp/burp.log --host=‘google.com‘ > burp-proxy.log

3.使用SqlMap批量分析日志(Use SqlMap to batch analyze log)

sqlmap -l burp-proxy.log --batch -smart

4.查看分析结果(Check result)

ls /usr/local/Cellar/sqlmap/0.9_1/libexec/output/

BurpLogFilter 这是一个Python3写的,用于过滤BurpSuite日志的小程序。 WHY? 为什么要写这个程序呢?强大的SqlMap支持使用BurpSuite的日志进行批量分析,但是BurpSuite的日志记录了所有走代理的流量,包括静态资源啊,重复的提交啊,这些都会影响SqlMap的分析效率。于是打算写一个小程序,可以做到: 可以按照域名过滤请求 可以自动过滤静态资源请求 可以自动按照模式过滤URL,即相同URL和参数的请求,只会留其一(参数值对于SqlMap没有什么作用) 使用方法 1、勾选BurpSuite输出日志(check the logging option) burpsuite 2、使用burplogfilter.py过滤日志(use burplogfilter.py to filter log file) Usage: python3 burplogfilter.py [options] Options: -h Show this showHelp -f filepath The BurpSuite log to analyze --host keyword, --host=keyword Host name filter -v Show debug message Examples: python3 burplogfilter.py -f /tmp/burp.log --host=‘google.com‘ > burp-proxy.log 3、使用SqlMap批量分析日志(Use SqlMap to batch analyze log) sqlmap -l burp-proxy.log --batch -smart 4、查看分析结果(Check result) ls /usr/local/Cellar/sqlmap/0.9_1/libexec/output/ 代码下载 https://github.com/tony1016/BurpLogFilter - 转载请保留原文链接:http://www.hi-ourlife.com/index.php/post/147.html

时间: 2024-12-18 09:00:07

BurpSuite日志分析过滤工具,加快SqlMap进行批量扫描的速度的相关文章

BurpSuite日志分析导入SqlMap进行批量扫描-BurpLogFilter

https://github.com/tony1016/BurpLogFilter    一个python3写的,用于过滤BurpSuite日志的小程序 WHY? 为什么要写这个程序呢?强大的SqlMap支持使用BurpSuite的日志进行批量分析,但是BurpSuite的日志记录了所有走代理的流量,包括静态资源啊,重复的提交啊,这些都会影响SqlMap的分析效率.于是打算写一个小程序,可以做到: 可以按照域名过滤请求 可以自动过滤静态资源请求 可以自动按照模式过滤URL,即相同URL和参数的请

推荐一款关于MongoDB日志分析的工具--Mtools

一. 需求背景 MongoDB数据库的强大的文档模型使其成为处理数据的最佳方式.文档适用于广泛的流行数据模型,支持各种各样的场景.文档模型可以包含键值.关系数据集和图形数据集,当然,还可以包含父子关系.列表/数组以及其他层次关系,它们比传统的关系型数据库技术(表格)具有更大的灵活性.由于文档模型与主流面向对象编程语言中的对象直接对应,因此开发人员可以根据现实世界中实体之间的自然关系存储和组织数据,从而将重点放在以最有意义的方式构建应用程序上,而不是围绕其数据库的局限性开展工作.因此,使用文档模型

sqlmap批量扫描burpsuite请求日志记录

sqlmap可以批量扫描包含有request的日志文件,而request日志文件可以通过burpsuite来获取, 因此通过sqlmap结合burpsuite工具,可以更加高效的对应用程序是否存在SQL注入漏洞进行地毯式的扫描. 扫描方式通常有windows扫描与linux扫描两种. 一.Windows下扫描配置 1.配置burpsuite下记录所有的request记录,并保存在指定文件夹. 因为windows下sqlmap工具需要使用python,所以我的sqlmap路径放在了C:\Pytho

MySQL执行语句日志分析工具

由于项目更新了一大版本,过不了多久就会进行一次SQL语句查询的优化任务,由运维部分导出一份历史查询SQL语句日志给开发部门做优化分析工作.以前写过一个日志分析的工具,可以不是很好,所以最近又花了几天时间,完善了这个工具.下面,我来说一下,开发历程: 一.任务分析: 1.工具界面: 2.具体需求:分类统计.忽略参数.调试错误 3.预想效果:参数部分用 ? 代替,工具效果展示: 二.开发编码:(读取(bgWorke),写入) 1.变量设置: static string resultFile;//日志

基于SQL的日志分析工具myselect

基本介绍 程序开发人员经常要分析程序日志,包括自己打印的日志及使用的其它软件打印的日志,如php,nginx日志等,linux环境下分析日志有一些内置命令可以使用,如grep,sort,uniq,awk等,其中最强大的是awk,是作为一门小巧的文本处理语言存在的,但由于它是一门语言,功能强大,但在命令行下使用并不那么方便,因为awk是面向计算而不是面向统计的.awk可以定义变量,可以进行计算,命令行下就是一个包含隐式for循环的语言. awk如果很长时间不用,它的一些语法就忘了,要分析线上日志时

实时海量日志分析系统的架构设计、实现以及思考

1 序 对ETL系统中数据转换和存储操作的相关日志进行记录以及实时分析有助于我们更好的观察和监控ETL系统的相关指标(如单位时间某些操作的处理时间),发现系统中出现的缺陷和性能瓶颈. 由于需要对日志进行实时分析,所以Storm是我们想到的首个框架.Storm是一个分布式实时计算系统,它可以很好的处理流式数据.利用storm我们几乎可以直接实现一个日志分析系统,但是将日志分析系统进行模块化设计可以收到更好的效果.模块化的设计至少有两方面的优点: 模块化设计可以使功能更加清晰.整个日志分析系统可以分

BurpSuite导出log配合SQLMAP批量扫描注入点

sqlmap可以批量扫描包含有request的日志文件,而request日志文件可以通过burpsuite来获取, 因此通过sqlmap结合burpsuite工具,可以更加高效的对应用程序是否存在SQL注入漏洞进行地毯式的扫描. 1.首先是burp设置记录log,文件名就随便填一个了. 2.把记录的log文件放sqlmap目录下 3.sqlmap读log自动测试: python sqlmap.py -l 文件名 --batch -smart batch:自动选yes. smart:启发式快速判断

Linux/Centos7系统管理之深入理解Linux文件系统与日志分析

前言: inode(文件节点)与block(数据块) 硬链接与软连接 恢复误删除的文件 (即rm-rf 的操作,可以先进行备份的操作,然后可以进行恢复ext4和xfs文件系统皆可) 日志文件的分类 用户日志与程序日志 一 :inode和block概述 1.1 概述 文件数据包括元信息与实际数据 文件存储在硬盘上,硬盘最小存储单位是"扇区",每个扇区储存512字节 block(块) 连续的八个扇区组成一个block,一个block单位是4k 是文件存取的最小单位 inode(索引节点)

sqlmap批量扫描burpsuite拦截的日志记录

1.功能上,sqlmap具备对burpsuite拦截的request日志进行批量扫描的能力 python sqlmap.py -l hermes.log --batch -v 3 --batch:会自动选择yes -l : 指定日志文件 -v: 调试信息等级,3级的话,可以看大注入的payload信息 2.如何配置burpsuite拦截扫描对象? 4.其他方式拦截的request日志文件,也可以 5.使用--smart智能探测效果不是很好,还是采用一些配置,加深扫描比较好 python sqlm