PHP抓取及分析网页的方法详解

本文实例讲述了PHP抓取及分析网页的方法。分享给大家供大家参考,具体如下:

抓取和分析一个文件是非常简单的事。这个教程将通过一个例子带领你一步一步地去实现它。让我们开始吧!

首先,我首必须决定我们将抓取的URL地址。可以通过在脚本中设定或通过$QUERY_STRING传递。为了简单起见,让我们将变量直接设在脚本中。

?


1

2

3

<?php

$url = http://www.php.net;

?>

第二步,我们抓取指定文件,并且通过file()函数将它存在一个数组里。

?


1

2

3

4

<?php

$url = http://www.php.net;

$lines_array = file($url);

?>

好了,现在在数组里已经有了文件了。但是,我们想分析的文本可能不全在一行里面。为了解决这个文件,我们可以简单地将数组$lines_array
转化成一个字符串。我们可以使用implode(x,y)函数来实现它。如果在后面你想用explode(将字符串变量数组),将x设成"|"或"!"或
其它类似的分隔符可能会更好。但是出于我们的目的,最好将x设成空格。y是另一个必要的参数,因为它是你想用implode()处理的数组。

?


1

2

3

4

5

<?php

$url = http://www.php.net;

$lines_array = file($url);

$lines_string = implode(‘‘, $lines_array);

?>

现在,抓取工作就做完了,下面该进行分析了。出于这个例子的目的,我们想得到在<head>到</head>之间的所有东西。为了分析出字符串,我们还需要叫做正规表达式的东西。

?


1

2

3

4

5

6

<?php

$url = http://www.php.net;

$lines_array = file($url);

$lines_string = implode(‘‘, $lines_array);

eregi("<head>(.*)</head>", $lines_string, $head);

?>

让我们看一下代码。正如你所见,eregi()函数按下面的格式执行:

?


1

eregi("<head>(.*)</head>", $lines_string, $head);

"(.*)"表示所有东西,可以解释为,"分析在<head>和</head>间的所以东西"。$lines_string是我们正在分析的字符串,$head是分析后的结果存放的数组。

最后,我们可以输数据。因为仅在<head>和</head>间存在一个实例,我们可以安全的假设数组中仅存在着一个元素,而且就是我们想要的。让我们把它打印出来吧。

?


1

2

3

4

5

6

<?php

$url = http://www.php.net;

$lines_array = file($url);

$lines_string = implode(‘‘, $lines_array); eregi("<head>(.*)</head>", $lines_string, $head);

echo $head[0];

?>

这就是全部的代码了。

?

 


1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

91

92

93

94

95

96

97

98

99

100

101

102

103

104

105

106

107

108

109

110

111

112

113

114

115

116

<?php

//获取所有内容url保存到文件

function get_index ( $save_file , $prefix = "index_" ){

   $count = 68 ;

   $i = 1 ;

  if ( file_exists ( $save_file )) @ unlink ( $save_file );

   $fp = fopen ( $save_file , "a+" ) or die( "Open " . $save_file . " failed" );

  while( $i < $count ){

     $url = $prefix . $i . ".htm" ;

    echo "Get " . $url . "..." ;

     $url_str = get_content_url ( get_url ( $url ));

    echo " OK/n" ;

     fwrite ( $fp , $url_str );

    ++ $i ;

  }

   fclose ( $fp );

}

//获取目标多媒体对象

function get_object ( $url_file , $save_file , $split = "|--:**:--|" ){

  if (! file_exists ( $url_file )) die( $url_file . " not exist" );

   $file_arr = file ( $url_file );

  if (! is_array ( $file_arr ) || empty( $file_arr )) die( $url_file . " not content" );

   $url_arr = array_unique ( $file_arr );

  if ( file_exists ( $save_file )) @ unlink ( $save_file );

   $fp = fopen ( $save_file , "a+" ) or die( "Open save file " . $save_file . " failed" );

  foreach( $url_arr as $url ){

    if (empty( $url )) continue;

    echo "Get " . $url . "..." ;

     $html_str = get_url ( $url );

    echo $html_str ;

    echo $url ;

    exit;

     $obj_str = get_content_object ( $html_str );

    echo " OK/n" ;

     fwrite ( $fp , $obj_str );

  }

   fclose ( $fp );

}

//遍历目录获取文件内容

function get_dir ( $save_file , $dir ){

   $dp = opendir ( $dir );

  if ( file_exists ( $save_file )) @ unlink ( $save_file );

   $fp = fopen ( $save_file , "a+" ) or die( "Open save file " . $save_file . " failed" );

  while(( $file = readdir ( $dp )) != false ){

    if ( $file != "." && $file != ".." ){

      echo "Read file " . $file . "..." ;

       $file_content = file_get_contents ( $dir . $file );

       $obj_str = get_content_object ( $file_content );

      echo " OK/n" ;

       fwrite ( $fp , $obj_str );

    }

  }

   fclose ( $fp );

}

//获取指定url内容

function get_url ( $url ){

   $reg = ‘/^http:////[^//].+$/‘ ;

  if (! preg_match ( $reg , $url )) die( $url . " invalid" );

   $fp = fopen ( $url , "r" ) or die( "Open url: " . $url . " failed." );

  while( $fc = fread ( $fp , 8192 )){

     $content .= $fc ;

  }

   fclose ( $fp );

  if (empty( $content )){

    die( "Get url: " . $url . " content failed." );

  }

  return $content ;

}

//使用socket获取指定网页

function get_content_by_socket ( $url , $host ){

   $fp = fsockopen ( $host , 80 ) or die( "Open " . $url . " failed" );

   $header = "GET /" . $url . " HTTP/1.1/r/n" ;

   $header .= "Accept: */*/r/n" ;

   $header .= "Accept-Language: zh-cn/r/n" ;

   $header .= "Accept-Encoding: gzip, deflate/r/n" ;

   $header .= "User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; Maxthon; InfoPath.1; .NET CLR 2.0.50727)/r/n" ;

   $header .= "Host: " . $host . "/r/n" ;

   $header .= "Connection: Keep-Alive/r/n" ;

   //$header .= "Cookie: cnzz02=2; rtime=1; ltime=1148456424859; cnzz_eid=56601755-/r/n/r/n";

   $header .= "Connection: Close/r/n/r/n" ;

   fwrite ( $fp , $header );

   while (! feof ( $fp )) {

     $contents .= fgets ( $fp , 8192 );

   }

   fclose ( $fp );

   return $contents ;

}

//获取指定内容里的url

function get_content_url ( $host_url , $file_contents ){

   //$reg = ‘/^(#|<a href="http://lib.csdn.net/base/18" class=‘replace_word‘ title="JavaScript知识库" target=‘_blank‘ style=‘color:#df3434; font-weight:bold;‘>JavaScript</a>.*?|ftp:////.+|http:////.+|.*?href.*?|play.*?|index.*?|.*?asp)+$/i‘;

   //$reg = ‘/^(down.*?/.html|/d+_/d+/.htm.*?)$/i‘;

   $rex = "/([hH][rR][eE][Ff])/s*=/s*[‘/"]*([^>‘/"/s]+)[/"‘>]*/s*/i" ;

   $reg = ‘/^(down.*?/.html)$/i‘ ;

   preg_match_all ( $rex , $file_contents , $r );

   $result = "" ; //array();

   foreach( $r as $c ){

    if ( is_array ( $c )){

      foreach( $c as $d ){

        if ( preg_match ( $reg , $d )){ $result .= $host_url . $d . "/n" ; }

      }

    }

  }

  return $result ;

}

//获取指定内容中的多媒体文件

function get_content_object ( $str , $split = "|--:**:--|" ){

   $regx = "/href/s*=/s*[‘/"]*([^>‘/"/s]+)[/"‘>]*/s*(.*?<//b>)/i" ;

   preg_match_all ( $regx , $str , $result );

  if ( count ( $result ) == 3 ){

     $result [ 2 ] = str_replace ( "多媒体: " , "" , $result [ 2 ]);

     $result [ 2 ] = str_replace ( " " , "" , $result [ 2 ]);

     $result = $result [ 1 ][ 0 ] . $split . $result [ 2 ][ 0 ] . "/n" ;

  }

  return $result ;

}

?>

时间: 2024-10-06 01:52:29

PHP抓取及分析网页的方法详解的相关文章

C#抓取和分析网页的类

抓取和分析网页的类. 主要功能有: Ontology 1.提取网页的纯文本,去所有html标签和javascript代码 2.提取网页的链接,包括href和frame及iframe 3.提取网页的title等(其它的标签可依此类推,正则是一样的) 4.可以实现简单的表单提交及cookie保存 /**  Author:Sunjoy at CCNU*  如果您改进了这个类请发一份代码给我(ccnusjy 在gmail.com)*/ using System;using System.Data;usi

浅谈屏蔽搜索引擎爬虫(蜘蛛)抓取/索引/收录网页的几种思路

网站建设好了,当然是希望网页被搜索引擎收录的越多越好,但有时候我们也会碰到网站不需要被搜索引擎收录的情况. 比如,你要启用一个新的域名做镜像网站,主要用于PPC 的推广,这个时候就要想办法屏蔽搜索引擎蜘蛛抓取和索引我们镜像网站的所有网页.因为如果镜像网站也被搜索引擎收录的话,很有可能会影响官网在搜索引擎的权重,这肯定是我们不想看到的结果. 以下列举了屏蔽主流搜索引擎爬虫(蜘蛛)抓取/索引/收录网页的几种思路.注意:是整站屏蔽,而且是尽可能的屏蔽掉所有主流搜索引擎的爬虫(蜘蛛). 1.通过 rob

Winform实现抓取web页面内容的方法

本文以一个非常简单的实例讲述了Winform实现抓取web页面内容的方法,代码简洁易懂,非常实用!分享给大家供大家参考. 具体实现代码如下: WebRequest request = WebRequest.Create("http://1.bjapp.sinaapp.com/play.php?a=" + PageUrl); WebResponse response = request.GetResponse(); Stream resStream = response.GetRespo

tcpdump教程 - 从命令行抓取和分析数据包

前言 在介绍和使用tcpdump之前,请确保您已经掌握或者了解如下几个关键概念,否则后面的内容让你有点痛苦. 能够在Linux命令行下工作 理解OSI七层网络协议的概念 熟悉各层的协议头部,重点是IP/TCP/UDP 交换机和路由器对应于OSI的协议层 另外还需要注意的是: tcpdump是基于Unix系统的命令行式的数据包嗅探工具.如果要使用tcpdump抓取其他主机MAC地址的数据包,必须开启网卡混杂模式,所谓混杂模式,用最简单的语言就是让网卡抓取任何经过它的数据包,不管这个数据包是不是发给

Python中的urlparse、urllib抓取和解析网页(一)

对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过Python 语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档.本文将详细介绍如何利用Python抓取和解析网页.首 先,我们介绍一个可以帮助简化打开位于本地和Web上的HTML文档的Python模块,然后,我们论述如何使用Python模块来迅速解析在HTML文 件中的数据,从而处理特定的内容,如链接.图像和Cookie等.最后,

PHP几种抓取网络数据的常见方法

//本小节的名称为 fsockopen,curl与file_get_contents,具体是探讨这三种方式进行网络数据输入输出的一些汇总.关于 fsockopen 前面已经谈了不少,下面开始转入其它.这里先简单罗列一下一些常见的抓取网络数据的一些方法.//1. 用 file_get_contents 以 get 方式获取内容:$url = 'http://localhost/test2.php';$html = file_get_contents($url);echo $html; //2. 用

SNMP报文抓取与分析(一)

SNMP报文抓取与分析(一) 1.抓取SNMP报文 SNMP报文的形式大致如下图所示 我们这里使用netcat这个工具来抓取snmp的PDU(协议数据单元).(因为我们并不需要前面的IP和UDP首部) 关于netcat的一些基本使用可以看这里http://www.cnblogs.com/oloroso/p/4610563.html netcat获取snmp报文 1 先获取snmpwalk发出的(get-next-request) 我们使用nc来监听161端口,然后把输出重定向到文件a.hex.因

使用Python中的urlparse、urllib抓取和解析网页(一)(转)

对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过Python 语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档.本文将详细介绍如何利用Python抓取和解析网页.首 先,我们介绍一个可以帮助简化打开位于本地和Web上的HTML文档的Python模块,然后,我们论述如何使用Python模块来迅速解析在HTML文 件中的数据,从而处理特定的内容,如链接.图像和Cookie等.最后,

css网页中设置背景图片的方法详解

css网页中设置背景图片的方法详解 在css代码中设置背景图片的方法,包括背景图片.背景重复.背景固定.背景定位等 用css设置网页中的背景图片,主要有如下几个属性: 1,背景颜色 {background-color:数值}2,背景图片 {background-image: url(URL)|none}3,背景重复 {background-repeat:inherit|no-repeat|repeat|repeat-x|repeat-y}4,背景固定 {background-attachment