信息收集之zoomeye

一.浏览器上使用api接口

1.http://api.zoomeye.org/user/login
 post传参:{"username" : "username","password" : "password"}

2.返回的token,用Modify Headers修改为"Authorization: JWT <YOUR-API-TOKEN>"

3.请求http://api.zoomeye.org/host/search?query="corporate/webpages/login.jsp"&facet=app,os,country&page=1可得json信息
 #query查询关键词;page翻页参数(默认为1);facets统计项目,如果为多个,使用, 号分隔各个统计项

二.python自动化利用

# -*- coding: UTF-8 -*-
import json
import requests
page = 1
PAGES = 5

def json_info(page):
    access_token=‘<YOUR-API-TOKEN>‘
    headers = {‘Authorization‘ : ‘JWT ‘ + access_token,}
    r = requests.get(url = ‘http://api.zoomeye.org/host/search?query="corporate/webpages/login.jsp"&page=‘ + str(page),headers = headers)
    r_decoded = json.loads(r.text) #将一个json串转化为dict
    #print r_decoded
    return r_decoded

if __name__ == ‘__main__‘:
    while page <= PAGES:
        r_decoded = json_info(page)
        with open(‘zoomeye.txt‘,‘a‘)as f:
            for i in r_decoded[‘matches‘]:
                print i[‘ip‘] + ‘ in ‘ + i[‘geoinfo‘][‘country‘][‘names‘][‘en‘]
                f.write(i[‘ip‘] + ‘ in ‘ + i[‘geoinfo‘][‘country‘][‘names‘][‘en‘]+‘\n‘)
        page+=1
    print ‘Searched_ip:‘ + str(r_decoded[‘total‘])
    with open(‘zoomeye.txt‘,‘a‘)as f:
        f.write(‘Searched_ip:‘ + str(r_decoded[‘total‘]))

固定属性*
| 名称                           |  类型  |  说明                                 | 示例
| ------                        |------  |  -------------                    | ---  
| site                          | string | 网站地址                             | foo.com
| ip                             | string | IP  地址                              | foo.com
| headers                    | string | HTTP  请求头                        | HTTP/1.1...
| title                           | string | HTTP 标题                            | Hello Welcome...
| description                  | strine | HTTP meta description 属性  | foo
| keyword                       | string | HTTP meta 关键词             | foo
| domains                      | string | 站点包含子域                     | a.com
| waf.name                     | string | Web 防火墙名称               | jiasule
| waf.version                  | string | Web 防火墙名称版本         | v1.0
| server.name                 | string | Web 服务器名称               | nginx
| server.version               | string | Web 服务器版本               | 1.9.2
| component.name             | string | Web 容器名称               | mod_ssl
| component.version          | string | Web 容器版本               | v1.0
| language                       | string | Web 编程语言               | php
| db.name                       | string |  数据库名称                  | MySQL
| db.version                     | string | 数据库版本                   | v1.0
| frontend.name                 | string |  前端组件名称              | jQuery
| frontend.version               | string | 前端组件版本               | v1.0
| thirdparty                        | string |  第三方组件民称            | v1.0
| plugin.url                         | string |  插件 url                  | www.google.com/analysics
| plugin.name                     | string |  插件名称                  | google analysics
| plugin.version                  | string | 插件版本                   | v1.0
| webapp.url                      | string | web 应用 url               | wordpress.org
| webapp.name                  | string | Web 应用名称 name          | wordpress
| webapp.version                | string | Web 应用版本               | wordpress version
| html                                | string | HTTP HTML 请求体           | <Doctype....>
| geoinfo.asn                      | string | ASN 号                     | AS4134
| geoinfo.isp                       | string | 运营商                     | China Telecom Guangdong
| geoinfo.city                      | string | 城市                       | Guangzhou
| geoinfo.country.code        | string | 国家码                     | CN
| geoinfo.country.name       | string | 国家名称                   | China
| geoinfo.continent.code      | string | 洲际码                     | AS
| geoinfo.continent.name     | string | 洲际名称                   | Asia
| geoinfo.location.latitude     | float  | 纬度                       | 23.0268
| geoinfo.location.longitude  | float  | 经度                       | 113.1315

*注意转json串转化为了dict,所以要访问内嵌字典eg.i[‘geoinfo‘][‘country‘][‘names‘][‘en‘]

时间: 2024-10-31 06:54:00

信息收集之zoomeye的相关文章

【安全牛学习笔记】主动信息收集 - 发现

主动信息收集 - 发现1.特点    直接与目标系统交互通信    无法避免留下访问的痕迹    使用受控的第三方电脑进行探测      使用代理或已被控制的主机      做好被封杀的准备      使用噪声迷惑目标,淹没真实的探测流量    扫描      发送不同的探测,根据返回结果判断目标状态 2.主机发现 识别活着的主机,输出IP地址列表(1)二层发现(数据链路层) 优点:扫描速度快,可靠缺点:不可路由arp协议:根据ip地址获取MAC地址的TCP/IP协议 原理:向网段内所有主机发送

Kali 渗透测试- 全主动信息收集-发现

╋━━━━━━━━━━━━━━━━━━━━━╋ ┃主动信息收集                              ┃ ┃无法避免留下访问的痕迹                    ┃ ┃使用受控的第三方电脑进行探测              ┃ ┃  使用代理或已经被控制的主机              ┃ ┃  做好被封杀的准备                        ┃ ┃  使用噪声迷惑目标,淹没真是的探测流量    ┃ ┃扫描                      

20145311王亦徐 《网络对抗技术》 信息收集与漏洞扫描

20145311王亦徐 <网络对抗技术> 信息收集与漏洞扫描 实验内容 利用whois.nslookup.dig进行域名注册信息.ip信息查询 使用tracert进行路由信息查询 使用在线网站查询ip地理位置 使用nmap查询存活主机.目标主机开放的端口等 利用openvas扫描目标主机的漏洞 基础问题回答 1.哪些组织负责DNS,IP的管理 ICANN负责协调管理DNS各技术要素以确保普遍可解析性,使所有的互联网用户都能够找到有效的地址 地址支持组织(ASO)负责IP地址系统的管理 域名支持

小白日记7:kali渗透测试之主动信息收集-发现(一)--二层发现:arping/shell脚本,Netdiscover,scapy

主动信息收集 被动信息收集可能不准确,可以用主动信息收集验证 特点:直接与目标系统交互通信,无法避免留下访问痕迹 解决方法:1.使用受控的第三方电脑进行探测,使用代理 (做好被封杀的准备) 2.伪造大量的来源IP进行探测,进行噪声迷惑,淹没真是的探测流量 扫描流程:发送不同的探测,根据返回结果判断目标状态[IP层->端口层->服务层] 发现 识别活着的主机,发现潜在的被攻击目标,输出结果为IP地址列表. 二层发现 数据电路层,使用ARP协议 使用场景:已经取得一台主机,进入内网,对内网进行渗透

小白日记2:kali渗透测试之被动信息收集(一)

一.被动信息收集 被动信息收集指的是通过公开渠道可获得的信息,与目标系统不产生直接交互,尽量避免留下一切痕迹的信息探测.被动探测技术收集的信息可以大致分为两类, 即配置信息和状态信息. 被动探测可收集的信息 特征 被动技术 IP地址或地址段 探测是否存活 MAC地址 内部嗅探ARP,DHCP 域名信息和主机名 外部嗅探DNS,内部嗅探NetBIOS,ARP,DHCP 操作系统和版本 指纹信息 运行的应用软件   用户名和密码   设备类型(服务器.客户机) 端口和协议使用,ICMP 运行的服务

小白日记5:kali渗透测试之被动信息收集(四)--theHarvester,metagoofil,meltag,个人专属密码字典--CUPP

1.theHarvester theHarvester是一个社会工程学工具,它通过搜索引擎.PGP服务器以及SHODAN数据库收集用户的email,子域名,主机,雇员名,开放端口和banner信息. 注:一般需要FQ #可使用proxychains指定代理 [email protected]:~# theharvester -h ******************************************************************* * * * | |_| |__

小白日记6:kali渗透测试之被动信息收集(五)-Recon-ng

Recon-ng Recon-NG是由python编写的一个开源的Web侦查(信息收集)框架.Recon-ng框架是一个全特性的工具,使用它可以自动的收集信息和网络侦查.其命令格式与Metasploit!默认集成数据库,可把查询结果结构化存储在其中,有报告模块,把结果导出为报告. 点击打开链接 1.启动Recon-NG框架 [recon-ng][default] >提示符表示启动成功 <span style="font-size:18px;">[email prote

★Kali信息收集~★6.Dmitry:汇总收集

概述: DMitry(Deepmagic Information Gathering Tool)是一个一体化的信息收集工具.它可以用来收集以下信息: 1. 端口扫描 2. whois主机IP和域名信息 3. 从Netcraft.com获取主机信息 4. 子域名 5. 域名中包含的邮件地址 尽管这些信息可以在Kali中通过多种工具获取,但是使用DMitry可以将收集的信息保存在一个文件中,方便查看. 参数: 常用:  获取 whois ,ip,主机信息,子域名,电子邮件 子域名和电子邮箱依赖谷歌搜

★Kali信息收集★8.Nmap :端口扫描

★Kali信息收集~ 0.Httrack 网站复制机 http://www.cnblogs.com/dunitian/p/5061954.html ★Kali信息收集~ 1.Google Hacking + Github Hacking http://www.cnblogs.com/dunitian/p/5074765.html ★Kali信息收集~2.Whois :域名信息 http://www.cnblogs.com/dunitian/p/5074768.html ★Kali信息收集~3.子