Google Hacking基础

intext:
这个就是把网页中的正文内容中的某个字符做为搜索条件.例如在google里输入:intext:动网.将返回所有在网页正文部分包含"动网"的网页.allintext:使用方法和intext类似.

intitle:
和上面那个intext差不多,搜索网页标题中是否有我们所要找的字符.例如搜索:intitle:安全天使.将返回所有网页标题中包含"安全天使"的网页.同理allintitle:也同intitle类似.

cache:
搜索google里关于某些内容的缓存,有时候也许能找到一些好东西哦.

define:
搜索某个词语的定义,搜索:define:hacker,将返回关于hacker的定义.

filetype:
这个我要重点推荐一下,无论是撒网式攻击还是我们后面要说的对特定目标进行信息收集都需要用到这个.搜索指定类型的文件.例如输入:filetype:doc.将返回所有以doc结尾的文件URL.当然如果你找.bak、.mdb或.inc也是可以的,获得的信息也许会更丰富:)

info:
查找指定站点的一些基本信息.

inurl:
搜索我们指定的字符是否存在于URL中.例如输入:inurl:admin,将返回N个类似于这样的连接:http://www.xxx.com/xxx/admin,用来找管理员登陆的URL不错.allinurl也同inurl类似,可指定多个字符.

link:
例如搜索:inurl:www.4ngel.net可以返回所有和www.4ngel.net做了链接的URL.

site:
这个也很有用,例如:site:www.4ngel.net.将返回所有和4ngel.net这个站有关的URL.

有用的操作符:

+ 把google可能忽略的字列如查询范围
- 把某个字忽略
~ 同意词
. 单一的通配符
* 通配符,可代表多个字母
""  精确查询

实际应用:  

下面开始说说实际应用(我个人还是比较习惯用google.com,以下内容均在google上搜索),对于一个居心叵测的攻击者来说,可能他最感兴趣的就是密码文件了.而google正因为其强大的搜索能力往往会把一些敏感信息透露给他们.用google搜索以下内容:

intitle:"index of" etc
intitle:"Index of" .sh_history
intitle:"Index of" .bash_history
intitle:"index of" passwd
intitle:"index of" people.lst
intitle:"index of" pwd.db
intitle:"index of" etc/shadow
intitle:"index of" spwd
intitle:"index of" master.passwd
intitle:"index of" htpasswd
"# -FrontPage-" inurl:service.pwd

  有时候因为各种各样的原因一些重要的密码文件被毫无保护的暴露在网络上,如果被别有用心的人获得,那么危害是很大的.下面是我找到的一个FreeBSD系统的passwd文件

  同样可以用google来搜索一些具有漏洞的程序,例如ZeroBoard发现个文件代码泄露漏洞,我们可以用google来找网上使用这套程序的站点:
intext:ZeroBoard filetype:php
或者使用:
inurl:outlogin.php?_zb_path= site:.jp
来寻找我们所需要的页面.phpmyadmin是一套功能强大的数据库操作软件,一些站点由于配置失误,导致我们可以不使用密码直接对phpmyadmin进行操作.我们可以用google搜索存在这样漏洞的程序URL:
intitle:phpmyadmin intext:Create new database

  还记得http://www.xxx.com/_vti_bin/..%5C..%5C..%5C..%5C..%5C../winnt/system32/cmd.exe?dir吗?用google找找,你也许还可以找到很多古董级的机器。同样我们可以用这个找找有其他cgi漏洞的页面。
allinurl:winnt system32

  前面我们已经简单的说过可以用google来搜索数据库文件,用上一些语法来精确查找能够获得更多东西(access的数据库,mssql、mysql的连接文件等等).举个例子示例一下:
allinurl:bbs data
filetype:mdb inurl:database
filetype:inc conn
inurl:data filetype:mdb
intitle:"index of" data
  //在一些配置不正确的apache+win32的服务器上经常出现这种情况
  

和上面的原理一样,我们还可以用google来找后台。

  利用google完全是可以对一个站点进行信息收集和渗透的,下面我们用google对特定站点进行一次测试。www.xxxx.com是全国著名大学之一,一次偶然的机会我决定对其站点进行一次测试(文中所涉及该学校的信息均已经过处理,请勿对号入座:).

Google渗透实例:
  首先用google先看这个站点的一些基本情况(一些细节部分就略去了):
site:xxxx.com
  从返回的信息中,找到几个该校的几个系院的域名:
http://a1.xxxx.com
http://a2.xxxx.com
http://a3.xxxx.com
http://a4.xxxx.com
  顺便ping了一下,应该是在不同的服务器。学校一般都会有不少好的资料,先看看有什么好东西没:
site:xxxx.com filetype:doc
    得到N个不错的doc。先找找网站的管理后台地址:
site:xxxx.com intext:管理
site:xxxx.com inurl:login
site:xxxx.com intitle:管理
    超过获得2个管理后台地址:
http://a2.xxxx.com/sys/admin_login.asp
http://a3.xxxx.com:88/_admin/login_in.asp
    还算不错,看看服务器上跑的是什么程序:
site:a2.xxxx.com filetype:asp
site:a2.xxxx.com filetype:php
site:a2.xxxx.com filetype:aspx
site:a3.xxxx.com filetype:asp
site:.......
......
    a2服务器用的应该是IIS,上面用的是asp的整站程序,还有一个php的论坛
    a3服务器也是IIS,aspx+asp。web程序都应该是自己开发的。有论坛那就看看能不能遇见什么公共的FTP帐号什么的:
site:a2.xxxx.com intext:ftp://*:*
    没找到什么有价值的东西。再看看有没有上传一类的漏洞:
site:a2.xxxx.com inurl:file
site:a3.xxxx.com inurl:load
    在a2上发现一个上传文件的页面:
http://a2.xxxx.com/sys/uploadfile.asp
    用IE看了一下,没权限访问。试试注射,
site:a2.xxxx.com filetype:asp
    得到N个asp页面的地址,体力活就让软件做吧,这套程序明显没有对注射做什么防范,dbowner权限,虽然不高但已足矣,back a shell我不太喜欢,而且看起来数据库的个头就不小,直接把web管理员的密码暴出来再说,MD5加密过。一般学校的站点的密码都比较有规律,通常都是域名+电话一类的变形,用google搞定吧。
site:xxxx.com  //得到N个二级域名
site:xxxx.com intext:*@xxxx.com  //得到N个邮件地址,还有邮箱的主人的名字什么的
site:xxxx.com intext:电话   //N个电话
    把什么的信息做个字典吧,挂上慢慢跑。过了一段时间就跑出4个帐号,2个是学生会的,1个管理员,还有一个可能是老师的帐号。登陆上去:
name:网站管理员
pass:a2xxxx7619  //说了吧,就是域名+4个数字
要再怎么提权那就不属于本文讨论访问了,呵呵,到此为止。

关于google hacking的防范:
  以前我们站的晓风·残月写过一篇躲避google的文章,原理就是通过在站点根目录下建立一个robots.txt以避免网络机器人获得一些敏感的信息。                                                                不过这种方法我个人不推荐,有点此地无银三百两的味道。简单一点的方法就是上google把自己站点的一些信息删除掉,访问这个URL:
http://www.google.com/remove.html
前几天看见又有人讨论用程序来欺骗robot的方法,我觉得可以试试:
代码如下:
<?php

if (strstr($_SERVER[‘HTTP_USER_AGENT‘], "Googlebot"))
{
header("HTTP/1.1 301");
header("Location: http://www.google.com");
}

?>

asp的:
<%
if instr(Request.Servervariables("HTTP_USER_AGENT"),"Googlebot") then
  response.redirect("http://www.google.com")
end if

%>

时间: 2024-07-31 14:22:23

Google Hacking基础的相关文章

google hacking for penetration testers 手册笔记

参考链接: Advanced operators reference Google hacking database 注意:以下内容涉及到大量参考图表,图表均在本人相册<google hacking参数查询表>里 第一章 谷歌搜索基础知识 1.谷歌翻译 可看作透明代理 利用: “翻译此页” 2.黄金法则: 不区分大小写 通配符*代表一个单词,非单一字母或一系列字母,在一单词开始或结尾使用星号和直接使用单词效果相同 保留查询关键字权利 强制搜索:         加引号:“words” 或 用布

Google Hacking

Google Hacking指利用google搜索引擎搜索信息来入侵的技术和行为 intitle 把网页的URL的某个字符作为搜索条件 intext 把网页中的正文内容中的某个字符作为搜索条件 inurl 用户搜索网页上包含的URL filetype 指定类型的文件 cache 搜索关于某些内容的缓存 还有一些操作符也是很有用的 +  把google可能忽略的字列如查询范围 -   把某个字忽略 ~  同意词 .    单一的通配符 *   通配符可代表多个字母 ""  精确查询 Ex

Google Maps 基础教程

谷歌地图 是 Google 公司提供的电子地图服务是通过javascript调用,直接将代码嵌入到HTML页面,同时提供不同的CSS风格的地图调用代码,包括局部详细的卫星照片.此款服务可以提供含有政区和交通以及商业信息的矢量地图.不同分辨率的卫星照片和可以用来显示地形和等高线地形视图.在2014年3月5日谷歌表示印度22个城市的用户已经可以访问谷歌地图中75个在当地比较流行的室内场地地图,包括位于古尔冈的Ambience Mall,以及德里的Select City Walk购物中心等. Goog

Google Hacking的实现以及应用

Google Hacking其实并算不上什么新东西,在早几年我在一些国外站点上就看见过相关的介绍,但是由于当时并没有重视这种技术,认为最多就只是用来找找未改名的mdb或者别人留下的webshell什么的,并无太大实际用途.但是前段时间仔细啃了些资料才猛然发觉Google Hacking其实并非如此简单. google hacking的简单实现 记得以前看见过一篇文章写的就是简单的通过用www.google.com来搜索dvbbs6.mdb或conn.inc来获得一些站点的敏感信息.其实使用goo

Google Hacking Database(2016-2017最新)

inurl:share.cgi?ssid=                                  ##云服务器文件和文件夹共享intitle:"Welcome to QNAP Turbo NAS"      ##  QNAP登录页面inurl:"img/main.cgi?next_file"                     ##在线摄像头ext:log inurl:"/pgadmin"                    

【转】google hacking 谷歌搜索方法简介

在csdn上看到的一篇博文,转过来了.地址在前面 原文: 搜索是一门艺术. 说起Google,可谓无人不知无人不晓.作为世界第一的搜索引擎,其强大的搜索功能,可以让你在瞬间找到你想要的一切.不过对于普通的计算机用户而言,Google是一个强大的搜索引擎:而对于黑客而言,则可能是一款绝佳的黑客工具.正因为google的检索能力强大,黑客可以构造特殊的关键字,使用Google搜索互联网上的相关隐私信息.通过Google,黑客甚至可以在几秒种内黑掉一个网站.这种利用Google搜索相关信息并进行入侵的

Google Hacking技术

(1)查找包含某关键字的特定类型文件 命令:关键字 filetype:文件类型 例如:数据 filetype:xlsx [更新中...]

google hacking 语法

site:xxx.edu.cn 学号 site:xxx.edu.cn inurl:login site:xxx.edu.cn intitle:登陆   原文地址:https://www.cnblogs.com/builder4ever/p/11840154.html

Python+Google Hacking+百度搜索引擎进行信息搜集

记录一下在用python爬取百度链接中遇到的坑: 1.获取百度搜索页面中的域名URL BeautifulSoup获取a标签中href属性后,链接为百度url,利用request直接访问默认会直接进行跳转,无法获取所需域名 此时需要将requests的allow_redirects属性设置为False,禁止进行跳转,requests默认会进行跳转 再使用.headers['Location']获取最后链接:final_url = baidu_url.headers['Location'] 2.百度