PHP抓取采集类snoopy介绍

PHP抓取采集类snoopy介绍

一个PHP的抓取方案

在 2011年07月04日 那天写的     已经有 10270 次阅读了

感谢 参考或原文

服务器君一共花费了14.288 ms进行了2次数据库查询,努力地为您提供了这个页面。

试试阅读模式?希望听取您的建议

snoopy是一个php类,用来模仿web浏览器的功能,它能完成获取网页内容和发送表单的任务。官方网站 http://snoopy.sourceforge.net/

Snoopy的一些功能特点:

  • 抓取网页的内容 fetch()
  • 抓取网页的文本内容 (去除HTML标签) fetchtext()
  • 抓取网页的链接,表单 fetchlinks() fetchform()
  • 支持代理主机
  • 支持基本的用户名/密码验证
  • 支持设置 user_agent, referer(来路), cookies 和 header content(头文件)
  • 支持浏览器重定向,并能控制重定向深度
  • 能把网页中的链接扩展成高质量的url(默认)
  • 提交数据并且获取返回值
  • 支持跟踪HTML框架
  • 支持重定向的时候传递cookies

要求php4以上就可以。由于本身是php一个类,无需扩支持,服务器不支持curl时候的最好选择。

类方法

1. fetch($uri)

这是为了抓取网页的内容而使用的方法。$URI参数是被抓取网页的URL地址。抓取的结果被存储在 $this->results 中。

如果你正在抓取的是一个框架,Snoopy将会将每个框架追踪后存入数组中,然后存入 $this->results。

1 <?php
2 $url "http://www.nowamagic.net/librarys/veda/";
3 include("./Snoopy.class.php");
4  
5 $snoopy new Snoopy;
6 $snoopy->fetch($url);        //获取所有内容
7 echo $snoopy->results;       //显示结果
8 ?>

2. fetchtext($URI)

本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中的文字内容。

1 <?php
2 $url "http://www.nowamagic.net/librarys/veda/";
3 include("./Snoopy.class.php");
4  
5 $snoopy new Snoopy;
6 $snoopy->fetchtext($url);        //获取文本内容
7 echo $snoopy->results;       //显示结果
8 ?>

3. fetchform($URI)

本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中表单内容(form)。

1  

4. fetchlinks($URI)

本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中链接(link)。默认情况下,相对链接将自动补全,转换成完整的URL。

1  

5. submit($URI,$formvars)

本方法向$URL指定的链接地址发送确认表单。$formvars是一个存储表单参数的数组。

1  

6. submittext($URI,$formvars)

本方法类似于submit(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回登陆后网页中的文字内容。

1  

7. submitlinks($URI)

本方法类似于submit(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中链接(link)。默认情况下,相对链接将自动补全,转换成完整的URL。

1  

类属性 (缺省值在括号里)

  • $host 连接的主机
  • $port 连接的端口
  • $proxy_host 使用的代理主机,如果有的话
  • $proxy_port 使用的代理主机端口,如果有的话
  • $agent 用户代理伪装 (Snoopy v0.1)
  • $referer 来路信息,如果有的话
  • $cookies cookies, 如果有的话
  • $rawheaders 其他的头信息, 如果有的话
  • $maxredirs 最大重定向次数, 0=不允许 (5)
  • $offsiteok whether or not to allow redirects off-site. (true)
  • $expandlinks 是否将链接都补全为完整地址 (true)
  • $user 认证用户名, 如果有的话
  • $pass 认证用户名, 如果有的话
  • $accept http 接受类型 (image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, */*)
  • $error 哪里报错, 如果有的话
  • $response_code 从服务器返回的响应代码
  • $headers 从服务器返回的头信息
  • $maxlength 最长返回数据长度
  • $read_timeout 读取操作超时 (requires PHP 4 Beta 4+),设置为0为没有超时
  • $timed_out 如果一次读取操作超时了,本属性返回 true (requires PHP 4 Beta 4+)
  • $maxframes 允许追踪的框架最大数量
  • $status 抓取的http的状态
  • $temp_dir 网页服务器能够写入的临时文件目录 (/tmp)
  • $curl_path cURL binary 的目录, 如果没有cURL binary就设置为 false

Demo

01 include "Snoopy.class.php";
02 $snoopy new Snoopy;
03  
04 $snoopy->proxy_host = "http://www.nowamagic.net/librarys/veda/";
05 $snoopy->proxy_port = "80";
06  
07 $snoopy->agent = "(compatible; MSIE 4.01; MSN 2.5; AOL 4.0; Windows 98)";
08 $snoopy->referer = "http://www.4wei.cn";
09  
10 $snoopy->cookies["SessionID"] = 238472834723489l;
11 $snoopy->cookies["favoriteColor"] = "RED";
12  
13 $snoopy->rawheaders["Pragma"] = "no-cache";
14  
15 $snoopy->maxredirs = 2;
16 $snoopy->offsiteok = false;
17 $snoopy->expandlinks = false;
18  
19 $snoopy->user = "joe";
20 $snoopy->pass = "bloe";
21  
22 if($snoopy->fetchtext("http://www.4wei.cn"))
23 {
24 echo "<PRE>".htmlspecialchars($snoopy->results)."</PRE>n";
25 }
26 else
27 echo "error fetching document: ".$snoopy->error."n";

获取指定url内容:

01 <?
02 $url "http://www.nowamagic.net/librarys/veda/";
03 include("snoopy.php");
04 $snoopy new Snoopy;
05 $snoopy->fetch($url); //获取所有内容
06 echo $snoopy->results; //显示结果
07 //可选以下
08 //$snoopy->fetchtext //获取文本内容(去掉html代码)
09 //$snoopy->fetchlinks //获取链接
10 //$snoopy->fetchform  //获取表单
11 ?>

表单提交:

01 <?php
02 $formvars["username"] = "admin";
03 $formvars["pwd"] = "admin";
04 $action "http://www.nowamagic.net/librarys/veda/";//表单提交地址
05 $snoopy->submit($action,$formvars);//$formvars为提交的数组
06 echo $snoopy->results; //获取表单提交后的 返回的结果
07 //可选以下
08 $snoopy->submittext; //提交后只返回 去除html的 文本
09 $snoopy->submitlinks;//提交后只返回 链接
10 ?>

既然已经提交的表单,那就可以做很多事情。接下来我们来伪装ip,伪装浏览器:

01 <?php
02 $formvars["username"] = "admin";
03 $formvars["pwd"] = "admin";
04 $action "http://www.4wei.cn";
05 include "snoopy.php";
06 $snoopy new Snoopy;
07 $snoopy->cookies["PHPSESSID"] = ‘fc106b1918bd522cc863f36890e6fff7‘//伪装sessionid
08 $snoopy->agent = "(compatible; MSIE 4.01; MSN 2.5; AOL 4.0; Windows 98)";//伪装浏览器
09 $snoopy->referer = http://www.4wei.cn; //伪装来源页地址 http_referer
10 $snoopy->rawheaders["Pragma"] = "no-cache"//cache 的http头信息
11 $snoopy->rawheaders["X_FORWARDED_FOR"] = "127.0.0.101"//伪装ip
12 $snoopy->submit($action,$formvars);
13 echo $snoopy->results;
14 ?>

原来我们可以伪装session 伪装浏览器 ,伪装ip, haha 可以做很多事情了。例如 带验证码,验证ip 投票, 可以不停的投。

ps:这里伪装ip ,其实是伪装http头,所以一般的通过 REMOTE_ADDR 获取的ip是伪装不了,反而那些通过http头来获取ip的(可以防止代理的那种) 就可以自己来制造ip。

关于如何验证码 ,简单说下:首先用普通的浏览器, 查看页面 , 找到验证码所对应的sessionid,同时记下sessionid和验证码值,接下来就用snoopy去伪造 。

原理:由于是同一个sessionid 所以取得的验证码和第一次输入的是一样的。

有时我们可能需要伪造更多的东西,snoopy完全为我们想到了:

01 <?php
02 $snoopy->proxy_host = "http://www.nowamagic.net/librarys/veda/";
03 $snoopy->proxy_port = "8080"//使用代理
04 $snoopy->maxredirs = 2; //重定向次数
05 $snoopy->expandlinks = true; //是否补全链接 在采集的时候经常用到
06 // 例如链接为 /images/taoav.gif 可改为它的全链接 <a href="http://www.4wei.cn/images/taoav.gif">http://www.4wei.cn/images/taoav.gif</a>
07 $snoopy->maxframes = 5 //允许的最大框架数
08 //注意抓取框架的时候 $snoopy->results 返回的是一个数组
09 $snoopy->error //返回报错信息
10 ?>

比较完整的示例:

01 /**
02 * You need the snoopy.class.php from
03 http://snoopy.sourceforge.net/
04 */
05 include("snoopy.class.php");
06   
07 $snoopy new Snoopy;
08 // need an proxy?:
09 //$snoopy->proxy_host = "my.proxy.host";
10 //$snoopy->proxy_port = "8080";
11   
12 // set browser and referer:
13 $snoopy->agent = "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)";
14 $snoopy->referer = "http://www.jonasjohn.de/";
15   
16 // set some cookies:
17 $snoopy->cookies["SessionID"] = ‘238472834723489‘;
18 $snoopy->cookies["favoriteColor"] = "blue";
19   
20 // set an raw-header:
21 $snoopy->rawheaders["Pragma"] = "no-cache";
22   
23 // set some internal variables:
24 $snoopy->maxredirs = 2;
25 $snoopy->offsiteok = false;
26 $snoopy->expandlinks = false;
27   
28 // set username and password (optional)
29 //$snoopy->user = "joe";
30 //$snoopy->pass = "bloe";
31   
32 // fetch the text of the website www.google.com:
33 if($snoopy->fetchtext("http://www.google.com")){
34     // other methods: fetch, fetchform, fetchlinks, submittext and submitlinks
35   
36     // response code:
37     print "response code: ".$snoopy->response_code."<br/>n";
38   
39     // print the headers:
40   
41     print "<b>Headers:</b><br/>";
42     while(list($key,$val) = each($snoopy->headers)){
43         print $key.": ".$val."<br/>n";
44     }
45   
46     print "<br/>n";
47   
48     // print the texts of the website:
49     print htmlspecialchars($snoopy->results)."n";
50 }
51 else {
52     print "Snoopy: error while fetching document: ".$snoopy->error."n";
53 }

用Snoopy类完成一个简单的图片采集:

时间: 2024-10-10 18:45:28

PHP抓取采集类snoopy介绍的相关文章

网页爬虫WebCrawler(1)-Http网页内容抓取

在windows下的C++通过Http协议实现对网页的内容抓取: 首先介绍下两个重要的包(一般是在linux下的开源数据包,在windows下则调用其动态链接库dll):curl包和pthreads_dll,其中curl包解释为命令行浏览器,通过调用内置的curl_easy_setopt等函数即可实现特定的网页内容获取(正确的编译导入的curl链接库,还需要另外一个包C-ares).pthreads是多线程控制包,当中包含了互斥变量加锁和解锁.程序进程分配等函数. 下载地址:点击打开链接.其中要

58反抓取简介

0x00 介绍 网络爬虫,常又被称呼为Spider,网络机器人,主要模拟网络交互协议,长时间,大规模的获取目标数据. 普通爬虫会从网站的一个链接开始,不断收集网页资源,同时不断延伸抓取新获取的URL以及相应的资源. 在对抓取目标内容结构分析的基础上,还会有目的性更强的聚焦型爬虫. 爬虫对网站的抓取,最直接的影响就是增加服务器负载,影响正常业务的使用. 但是仅仅限制爬虫的抓取频次是远远不够的. 更重要的是对网站资源的保护,比如房产类信息中的小区名称.户型.建造年代.房型图.视频.面积.总价.单价等

PHP采集类snoopy详细介绍(snoopy使用教程)

Snoopy是一个php类,用来模拟浏览器的功能,可以获取网页内容,发送表单,可以用来开发一些采集程序和小偷程序,本文章详细介绍snoopy的使用教程. Snoopy的一些特点: 抓取网页的内容 fetch 抓取网页的文本内容 (去除HTML标签) fetchtext 抓取网页的链接,表单 fetchlinks fetchform 支持代理主机 支持基本的用户名/密码验证 支持设置 user_agent, referer(来路), cookies 和 header content(头文件) 支持

利用Selenium制作python数据抓取,以及对Selenium资源介绍

当当当~第三篇博客开始啦~ 这次的话题是数据抓取.终于到了核心部分的探讨,我的心情也是非常激动啊!如果大家baidu或者google(如果可以的话)数据抓取或者data crawling,将会找到数以千计的例子.但是大多数的代码非常的冗长,并且许多代码还是抓取静态数据之后,对动态JS写成的数据却毫无办法.或者,利用HTML解析网址后,再找到JS写的数据页面来寻找到所想要的数据. 但是!不知各位是否有发现过,如果打开chrome或者safari或者各种浏览器的审查元素.网页上能看到的数据,其实都会

用C++实现网络编程,抓取网络数据包的实现方法和介绍

做过网管或协议分析的人一般都熟悉sniffer这个工具,它可以捕捉流经本地网卡的所有数据包.抓取网络数据包进行分析有很多用处,如分析网络是否有网络病毒等异常数据,通信协议的分析(数据链路层协议.IP.UDP.TCP.甚至各种应用层协议),敏感数据的捕捉等.下面我们就来看看在windows下如何实现数据包的捕获. 下面先对网络嗅探器的原理做简单介绍. 嗅探器设计原理 嗅探器作为一种网络通讯程序,也是通过对网卡的编程来实现网络通讯的,对网卡的编程也是使用通常的套接字(socket)方式来进行.但是,

转 PHP的CURL方法curl_setopt()函数案例介绍(抓取网页,POST数据)

PHP的CURL方法curl_setopt()函数案例介绍(抓取网页,POST数据) 通过curl_setopt()函数可以方便快捷的抓取网页(采集很方便),curl_setopt 是php的一个扩展库 使用条件:需要在php.ini 中配置开启.(PHP 4 >= 4.0.2)       //取消下面的注释 extension=php_curl.dll 在Linux下面,需要重新编译PHP了,编译时,你需要打开编译参数——在configure命令上加上“–with-curl” 参数. 1.

J哥--------------------------分享好东西:android抓包工具fiddler使用介绍 抓取 手机APP 中资源。

本文地址:http://blog.csdn.net/u011733020 首先,写这个只是为了学习,不是要做什么违法的事情,如果有问题,有关部门 请联系我,立马删除. 不要查我水表. 正题:这里介绍 抓包的关键,Fiddler  ,Fiddler是一个http协议调试代理工具,它能够记录并检查所有你的电脑和互联网之间的http通讯. 我们就是用这款软件抓取 ,我们手机app 访问的 资源路径 的. 下面 我们拿实例 来演示下,怎么用fiddler 抓取数据.(以某拍为例吧). 环境: win7

网页抓取:PHP实现网页爬虫方式小结

来源:http://www.ido321.com/1158.html 抓取某一个网页中的内容,需要对DOM树进行解析,找到指定节点后,再抓取我们需要的内容,过程有点繁琐.LZ总结了几种常用的.易于实现的网页抓取方式,如果熟悉JQuery选择器,这几种框架会相当简单. 一.Ganon 项目地址: http://code.google.com/p/ganon/ 文档: http://code.google.com/p/ganon/w/list 测试:抓取我的网站首页所有class属性值是focus的

PHP 用QueryList抓取网页内容

之前抓取网页数据都是用Java Jsoup,前几天听说用PHP抓更方便,今天就研究了一下,主要是用QueryList来实现. QueryList是一个基于phpQuery的通用列表采集类,是一个简单. 灵活.强大的采集工具,采集任何复杂的页面 基本上就一句话就能搞定了. 直接拿博客园举例子了,http://www.cnblogs.com/ 我们用QueryList来抓取红框里面的内容 查看网页源代码找到红框的位置 1 <div id="post_list"> 2 3 <