bing查询旁站脚本

 1 #!/usr/bin/env python
 2 # -*- coding: UTF-8 -*-
 3 #by i3ekr
 4
 5 import re,optparse,sys,requests,time,os
 6
 7 parse = optparse.OptionParser(usage="python %prog -i ‘127.0.0.1‘",version="%prog 1.0")
 8 parse.add_option(‘-i‘,‘--ip‘,action=‘store‘,dest=‘ip‘,help=‘ip parse...‘)
 9 parse.add_option(‘-o‘,‘--out‘,action=‘store‘,dest=‘out‘,help=‘this parse is out result file exp:-o "/tmp/result.txt""‘)
10 parse.set_defaults(v=1.2)
11 options,args=parse.parse_args()
12
13
14 def gethtml(ip,page):
15     try:
16         html = requests.get("https://www.bing.com/search?q=ip:"+ip+"&qs=ds&first="+str(page)+"&FORM=PERE4").content
17         return html
18     except Exception as e:
19         return "访问错误"
20         exit()
21
22 def chongfu():
23     with open("./tmp.txt","r") as f:
24         tmp = f.read()
25         url = tmp.split("\r\n")
26         for i in set(url):
27             with open("ok.txt","a") as f:
28                 f.write(i+‘\r\n‘)
29
30 def geturl(html):
31     try:
32         url = re.findall(r"(?<=<cite>).*?(?=</cite>)", html)
33         print url
34         for u in url:
35             with open("./tmp.txt","a") as f:
36                 f.write(u+"\r\n")
37                 f.close()
38     except Exception as e:
39         raise e
40
41 #根据索引出来的搜索量来判断有多少个页面,返回值是页面数量
42 def result_page():
43     try:
44         num = str(re.findall(r"<span class=\"sb_count\">(.*?)</span><span class=\"ftrB\"",html)[0]).strip(" 条结果")
45         page = int(num.replace(",",""))
46         return page/10
47     except Exception as e:
48         print "没有与此相关的结果"
49         exit()
50
51
52
53
54 if __name__ == "__main__":
55     print """
56             =========================
57             [+] by i3ekr
58             [+] Blog nul1.cnblogs.com
59             [+] Time 2018/6/13
60             =========================
61     """
62     if len(sys.argv) > 2:
63         url_pangzhan = []
64         pg = 1
65         ip = options.ip
66         f = False
67         while True:
68             if f == False:
69                 html = requests.get("https://www.bing.com/search?q=ip:"+ip+"&qs=ds&first=1&FORM=PERE4").content
70                 result_page()
71                 f = True
72             else:
73                 for i in xrange(0,result_page()):
74                     html = gethtml(ip,pg)
75                     url = geturl(html)
76                     print "第[%s]页"%(i+1)
77                     pg+=11
78
79                 chongfu()
80                 os.remove(‘tmp.txt‘)
81                 exit()
82
83     else:
84         print options.usage()
85         exit()

原文地址:https://www.cnblogs.com/nul1/p/9189692.html

时间: 2024-10-10 07:06:32

bing查询旁站脚本的相关文章

使用必应查询接口开发搜索工具:反查一个IP上的旁站

前言:必应提供了"Bing Search API",免费版的一个月可以查询5000次,我们可以通过调用这个API方便的使用必应的查询服务.其中"K8_C段旁注查询工具V2.0"就使用到了这个API,接下来我将详细说明在Java中如何使用这个API 一 API申请 申请地址:https://datamarket.azure.com/dataset/bing/search 当然首先要进行登陆,没有账号的话就注册一个,但是需要注意的是"国家/地区"这个

子域名爆破&amp;C段查询&amp;调用Bing查询同IP网站

在线子域名爆破 1 <?php 2 3 function domainfuzz($domain) { 4 $ip = gethostbyname($domain); 5 preg_match("/\d+\.\d+\.\d+\.\d+/",$ip,$arr); 6 return $arr; 7 } 8 9 function main() { 10 if(isset($_GET['q'])) { 11 $return = array(); 12 $domain = trim($_GE

C段查询雏形之在Java中反查一个IP上的所有域名(旁站查询)

这里使用了两个接口来反查IP,分别是"站长工具"和"爱站"的接口,两者各有千秋,结合起来查询就较为准确了. 注:我目前只写了个初始版本,还不太完善,但是可以基本使用了,代码中关键地方有注释,所以我就不多解释了 算法核心: package NmapTest; import java.io.BufferedReader; import java.io.IOException; import java.io.InputStream; import java.io.Inpu

人人都是 DBA(XII)查询信息收集脚本汇编

原文:人人都是 DBA(XII)查询信息收集脚本汇编 什么?有个 SQL 执行了 8 秒! 哪里出了问题?臣妾不知道啊,得找 DBA 啊. DBA 人呢?离职了!!擦!!! 程序员在无处寻求帮助时,就得想办法自救,努力让自己变成 "伪 DBA". 索引 按页编号查看数据表信息 获取查询 SELECT 语句的执行次数排名 看看哪些 Ad-hoc Query 在浪费资源 查看当前处于等待状态的 Task 在等什么 查询谁在占着 Session 连接 查询程序占用的 SPID 信息 查询所有

IP反查网站,ip反查接口,旁站查询接口大全,通过IP查域名汇总:

http://cn.bing.com/search?q=ip%3A220.181.111.85 http://dns.aizhan.com/?q=www.baidu.com http://domains.yougetsignal.com/domains.php?remoteAddress=lcx.cc http://i.links.cn/sameip/61.164.241.103.html http://ip.robtex.com/ http://rootkit.net.cn/index.asp

某省农机购置补贴系统旁站SQL注射(泄漏该通用系统源码及信息泄露风险

http://wooyun.org/bugs/wooyun-2014-070849 社工库地址 Social Engineering Data QQ群: https://qqgroup.insight-labs.org https://s3.amazonaws.com/qqqun./index.html(与insight-labs类似) www.weigongkai.com http://qun.594sgk.com/ http://chaxun.langzuwl.com/qun 密码泄露查询

9) 依赖查询 &amp; 镜像站

依赖查询 http://mvnrepository.com/ Maven仓库查询 http://search.maven.org 仓库 <repositories> <repository> <id>central</id> <name>Maven Repository Switchboard</name> <layout>default</layout> <url>http://repo.mave

MySQL中的基本多表连接查询 转自脚本之家(作者:真实的归宿)

一.多表连接类型 1. 笛卡尔积(交叉连接) 在MySQL中可以为CROSS JOIN或者省略CROSS即JOIN,或者使用','  如: 由于其返回的结果为被连接的两个数据表的乘积,因此当有WHERE, ON或USING条件的时候一般不建议使用,因为当数据表项目太多的时候,会非常慢.一般使用LEFT [OUTER] JOIN或者RIGHT [OUTER] JOIN 2.   内连接INNER JOIN 在MySQL中把I SELECT * FROM table1 CROSS JOIN tabl

MySQL 数据库慢查询日志分析脚本

这个脚本是基于pt-query-digest做的日志分析脚本,变成可视化的格式. 目录结构是 ./mysql_data/log./mysql_data/log/tmp./slow_query # coding = gbk __author__ = 'T_two' import datetime import os IP = '111' dirname = os.path.dirname(os.path.abspath(__file__)) # 解析后的目录名 slow_query= os.pat