用PHP抓取页面并分析

在做抓取前,记得把php.ini中的max_execution_time设置的大点,不然会报错的。

一、用Snoopy.class.php抓取页面

  一个挺萌的类名。功能也很强大,用来模拟浏览器的功能,可以获取网页内容,发送表单等。

  1)我现在要抓取一个网站的列表页的内容,我要抓取的是全国的医院信息内容,如下图:

  

  2)我很自然的将URL地址复制下来,用Snoopy类来抓取前10页的页面内容,而且将内容放到本地来,在本地建立html文件,等下用于分析。

$snoopy=new Snoopy();
//医院list页面
 for($i = 1; $i <= 10; $i++) {
   $url = ‘http://www.guahao.com/hospital/areahospitals?p=全国&pageNo=‘ . $i;
   $snoopy->fetch($url);
   file_put_contents("web/page/$i.html", $snoopy->results);
 }
 echo ‘success‘;

  

  3)很奇怪的是返回回来的不是全国的内容,而是上海的相关内容

  

  4)后面怀疑是里面可能设置了cookie,然后用firebug查看,果然有惊人内幕

  

  5)在请求的时候将cookie的值也放进去,就加了个设置语句$snoopy->cookies["_area_"],情况就大不一样了,顺利返回全国信息。

$snoopy=new Snoopy();
//医院list页面
$snoopy->cookies["_area_"] = ‘{"provinceId":"all","provinceName":"全国","cityId":"all","cityName":"不限??"}‘;
for($i = 1; $i <= 10; $i++) {
  //...页面内容抓取...}

二、用phpQuery.php分析页面

  用了这个类能像jQuery那样操作DOM,不必为采集网站内容而使用那些头疼的正则算法了,用法上与jQuery相似,只是$()换成了pq()。主页放在google的code中,被屏蔽了得FQ一下,下面的附件中我分享了一个最新版本的fgFQ软件。用法很简单只要打开fg742p.exe文件就可以了。

  1)我要获取每一页内容中的每个具体医院的信息,例如要获取301医院的信息。

  

  每页的内容页面已经在前面的操作中抓取到了本地。所以可以直接用localhost了。

  $snoopy=new Snoopy();
 for($i = 1; $i <= 10; $i++) {
    $url = "http://localhost/spider/web/page/$i.html";
    $snoopy->fetch($url);
    $html = $snoopy->results;
  }

  

  2)用phpQuery获取到节点信息,如下图的DOM结构:

  

  使用一些phpQuery的方法,结合DOM结构读取每个医院信息的URL地址。

for($i = 1; $i <= 10; $i++) {
    //...抓取本地页面...
    phpQuery::newDocument($html);  //初始化对象
    $urls = array();
    foreach(pq(‘.search-hos-info dl dt a‘) as $item) {
      array_push($urls, pq($item)->attr(‘href‘)); //医院详情
    }
}

  

  3)根据读取到的URL地址列表,抓取指定的页面。

$detailIndex = 1;
for($i = 1; $i <= 10; $i++) {
    //...抓取本地页面...
    //...获取指定节点的href地址信息...
    $len = count($urls);
    for($row = 1; $row <= $len; $row++) {
      $snoopy->fetch($urls[$row - 1]);
      file_put_contents("web/hospital/$detailIndex.html", $snoopy->results);
      $detailIndex++;
    }
}

FQ工具下载:

翻越障碍.rar

demo下载:

http://download.csdn.net/detail/loneleaf1/8089507

Snoopy类的一些说明:

类方法

fetch($URI) 这是为了抓取网页的内容而使用的方法。
$URI参数是被抓取网页的URL地址。
抓取的结果被存储在 $this->results 中。
如果你正在抓取的是一个框架,Snoopy将会将每个框架追踪后存入数组中,然后存入 $this->results。
fetchtext($URI) 本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中的文字内容。
fetchform($URI) 本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中表单内容(form)。
fetchlinks($URI) 本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中链接(link)。
默认情况下,相对链接将自动补全,转换成完整的URL。
submit($URI,$formvars) 本方法向$URL指定的链接地址发送确认表单。$formvars是一个存储表单参数的数组。
submittext($URI,$formvars) 本方法类似于submit(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回登陆后网页中的文字内容。
submitlinks($URI) 本方法类似于submit(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中链接(link)。
默认情况下,相对链接将自动补全,转换成完整的URL。

类属性

$host 连接的主机
$port 连接的端口
$proxy_host 使用的代理主机,如果有的话
$proxy_port 使用的代理主机端口,如果有的话
$agent 用户代理伪装 (Snoopy v0.1)
$referer 来路信息,如果有的话
$cookies cookies, 如果有的话
$rawheaders 其他的头信息, 如果有的话
$maxredirs 最大重定向次数, 0=不允许 (5)
$offsiteok whether or not to allow redirects off-site. (true)
$expandlinks 是否将链接都补全为完整地址 (true)
$user 认证用户名, 如果有的话
$pass 认证用户名, 如果有的话
$accept http 接受类型 (image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, */*)
$error 哪里报错, 如果有的话
$response_code 从服务器返回的响应代码
$headers 从服务器返回的头信息
$maxlength 最长返回数据长度
$read_timeout 读取操作超时 (requires PHP 4 Beta 4+),设置为0为没有超时
$timed_out 如果一次读取操作超时了,本属性返回 true (requires PHP 4 Beta 4+)
$maxframes 允许追踪的框架最大数量
$status 抓取的http的状态
$temp_dir 网页服务器能够写入的临时文件目录 (/tmp)
$curl_path cURL binary 的目录, 如果没有cURL binary就设置为 false
时间: 2024-10-08 03:48:39

用PHP抓取页面并分析的相关文章

基于angularJs的单页面应用seo优化及可抓取方案原理分析

公司使用angularJs(以下都是指ng1)框架做了互联网应用,之前没接触过seo,突然一天运营那边传来任务:要给网站做搜索引擎优化,需要研发支持.搜了下发现单页面应用做seo比较费劲,国内相关实践资料分享出来的也比较少,略懵,前后花了一番功夫总算完成了.在这里记录下来,做一个总结,也希望能够帮助在做类似工作的朋友少走一点弯路.还是建议需要seo的网站技术选型尽量不要使用angular react一类的单页面框架.如果你和我一样网站做完了发现需要seo,那么往下看吧.如果各位已有更优的方案欢迎

Python抓取页面乱码问题的解决

import urllib2 response=urllib2.urlopen('http://house.focus.cn/') html=response.read() print html.decode('gbk') Python抓取页面乱码问题的解决,布布扣,bubuko.com

python&amp;php数据抓取、爬虫分析与中介,有网址案例

最近在做一个网络爬虫程序,后台使用python不定时去抓取数据,前台使用php进行展示 网站是:http://se.dianfenxiang.com python&php数据抓取.爬虫分析与中介,有网址案例,布布扣,bubuko.com

好用的 curl 抓取 页面的封装函数

由于经常使用php curl 抓取页面的内容,在此mark 平时自己封装的 curl函数,(其实 现在也开始用 Python 来爬了~ ^-^) /** * 封装curl方法 * @author FredGui * @param string $url 必选 接口地址 * @param string $post 可选 如果是post访问填写post参数数组 * @param int $timeout 可选 超时时间 * @param string $cookie * @param int $de

beautifulsoup学习-抓取页面并解析

以汽车之家为例子,抓取页面并进行解析 # -*- coding=utf-8 -*- import urllib2 from BeautifulSoup import BeautifulSoup as bs3 import json import codecs #字符检测,用来检测其真实的编码格式 import chardet #save content to file def save_to_file(filename, content): f = open(filename, 'w+') as

curl只能抓取页面的部分内容的原因

核心提示:先列出 HessianPHP 的错误提示: CURL transport error: transfer closed with outstanding read data remaining 基础知识背景: 1)"Expect: 100-continue"的来龙去脉: HTTP/1.1 协议里设计100 (Continue) HTTP 状态码的的目的是,在客 ... 先列出 HessianPHP 的错误提示: CURL transport error: transfer c

使用jsoup爬虫抓取页面

httpclient 和jsoup都可以实现模拟浏览器抓取页面,前者发送请求,后者解析htm标签比较强大.本例直接使用jsoup实现请求和解析. package com.chongdong.log.test; import java.io.IOException; import java.util.HashMap; import java.util.Map; import org.jsoup.Connection; import org.jsoup.Connection.Method; impo

php抓取页面的几种方式

在做一些天气预报或者RSS订阅的程序时,往往 需要抓取非本地文件,一般情况下都是利用php模拟浏览器的访问,通过http请求访问url地址, 然后得到html源代码或者xml数据,得到数据我们不能直接输出,往往需要对内容进行提取,然后再进行格式化,以更加友好的方式显现出来. 下面简单说一下php抓取页面的几种方法及原理: 一. PHP抓取页面的主要方法: 1. file()函数 2. file_get_contents()函数 3. fopen()->fread()->fclose()模式 4

使用PHP的正则抓取页面中的网址

最近有一个任务,从页面中抓取页面中所有的链接,当然使用PHP正则表达式是最方便的办法.要写出正则表达式,就要先总结出模式,那么页面中的链接会有几种形式呢? 链接也就是超级链接,是从一个元素(文字.图片.视频等)链接到另一个元素(文字.图片.视频等).网页中的链接一般有三种,一种是绝对URL超链接,也就是一个页面的完整路径:另一种是相对URL超链接,一般都链接到同一网站的其他页面:还有一种是页面内的超链接,这种一般链接到同一页面内的其他位置. 搞清楚了链接的种类,就知道要抓链接,主要还是绝对URL