爬虫学习----正则表达式

1.

Python通过re模块提供对正则表达式的支持。

使用re的一般步骤是:

Step1:先将正则表达式的字符串形式编译为Pattern实例。

Step2:然后使用Pattern实例处理文本并获得匹配结果(一个Match实例)。

Step3:最后使用Match实例获得信息,进行其他的操作。

# -*- coding: utf-8 -*-
#一个简单的re实例,匹配字符串中的hello字符串

#导入re模块
import re

# 将正则表达式编译成Pattern对象,注意hello前面的r的意思是“原生字符串”
pattern = re.compile(r‘hello‘)

# 使用Pattern匹配文本,获得匹配结果,无法匹配时将返回None
match1 = pattern.match(‘hello world!‘)
match2 = pattern.match(‘helloo world!‘)
match3 = pattern.match(‘helllo world!‘)

#如果match1匹配成功
if match1:
# 使用Match获得分组信息
print (match1.group())
else:
print (‘match1匹配失败!‘)

#如果match2匹配成功
if match2:
# 使用Match获得分组信息
print (match2.group())
else:
print (‘match2匹配失败!‘)

#如果match3匹配成功
if match3:
# 使用Match获得分组信息
print (match3.group())
else:
print (‘match3匹配失败!‘)

2.

  • re.I(全拼:IGNORECASE): 忽略大小写(括号内是完整写法,下同)
  • re.M(全拼:MULTILINE): 多行模式,改变‘^‘和‘$‘的行为(参见上图)
  • re.S(全拼:DOTALL): 点任意匹配模式,改变‘.‘的行为
  • re.L(全拼:LOCALE): 使预定字符类 \w \W \b \B \s \S 取决于当前区域设定
  • re.U(全拼:UNICODE): 使预定字符类 \w \W \b \B \s \S \d \D 取决于unicode定义的字符属性
  • re.X(全拼:VERBOSE): 详细模式。这个模式下正则表达式可以是多行,忽略空白字符,并可以加入注释。

3.

# -*- coding: utf-8 -*-
#两个等价的re匹配,匹配一个小数
import re

a = re.compile(r"""\d + # the integral part
\. # the decimal point
\d * # some fractional digits""", re.X)

b = re.compile(r"\d+\.\d*")

match11 = a.match(‘3.1415‘)
match12 = a.match(‘33.‘)
match21 = b.match(‘3.1415‘)
match22 = b.match(‘.33‘)

if match11:
# 使用Match获得分组信息
print (match11.group())
else:
print (u‘match11不是小数‘)

if match12:
# 使用Match获得分组信息
print (match12.group())
else:
print (u‘match12不是小数‘)

if match21:
# 使用Match获得分组信息
print (match21.group())
else:
print (u‘match21不是小数‘)

if match22:
# 使用Match获得分组信息
print (match22.group())
else:
print (u‘match22不是小数‘)

以上两种写法一致,其实采用2中的方法

4.

1中的程序可以简写成:

# -*- coding: utf-8 -*-
#一个简单的re实例,匹配字符串中的hello字符串
import re

m = re.match(r‘hello‘, ‘hello world!‘)
print m.group()

re模块还提供了一个方法escape(string),用于将string中的正则表达式元字符如*/+/?等之前加上转义符再返回

5.Match方法对象详解

Match对象是一次匹配的结果,包含了很多关于此次匹配的信息,可以使用Match提供的可读属性或方法来获取这些信息。

属性:

  1. string: 匹配时使用的文本。
  2. re: 匹配时使用的Pattern对象。
  3. pos: 文本中正则表达式开始搜索的索引。值与Pattern.match()和Pattern.seach()方法的同名参数相同。
  4. endpos: 文本中正则表达式结束搜索的索引。值与Pattern.match()和Pattern.seach()方法的同名参数相同。
  5. lastindex: 最后一个被捕获的分组在文本中的索引。如果没有被捕获的分组,将为None。
  6. lastgroup: 最后一个被捕获的分组的别名。如果这个分组没有别名或者没有被捕获的分组,将为None。

方法:

    1. group([group1, …]):
      获得一个或多个分组截获的字符串;指定多个参数时将以元组形式返回。group1可以使用编号也可以使用别名;编号0代表整个匹配的子串;不填写参数时,返回group(0);没有截获字符串的组返回None;截获了多次的组返回最后一次截获的子串。
    2. groups([default]): 
      以元组形式返回全部分组截获的字符串。相当于调用group(1,2,…last)。default表示没有截获字符串的组以这个值替代,默认为None。
    3. groupdict([default]):
      返回以有别名的组的别名为键、以该组截获的子串为值的字典,没有别名的组不包含在内。default含义同上。
    4. start([group]): 
      返回指定的组截获的子串在string中的起始索引(子串第一个字符的索引)。group默认值为0。
    5. end([group]):
      返回指定的组截获的子串在string中的结束索引(子串最后一个字符的索引+1)。group默认值为0。
    6. span([group]):
      返回(start(group), end(group))。
    7. expand(template): 
      将匹配到的分组代入template中然后返回。template中可以使用\id或\g<id>、\g<name>引用分组,但不能使用编号0。\id与\g<id>是等价的;但\10将被认为是第10个分组,如果你想表达\1之后是字符‘0‘,只能使用\g<1>0。
    8. # -*- coding: utf-8 -*-
      #一个简单的match实例

      import re
      # 匹配如下内容:单词+空格+单词+任意字符
      m = re.match(r‘(\w+) (\w+)(?P<sign>.*)‘, ‘hello world!‘)

      print "m.string:", m.string
      print "m.re:", m.re
      print "m.pos:", m.pos
      print "m.endpos:", m.endpos
      print "m.lastindex:", m.lastindex
      print "m.lastgroup:", m.lastgroup

      print "m.group():", m.group()
      print "m.group(1,2):", m.group(1, 2)
      print "m.groups():", m.groups()
      print "m.groupdict():", m.groupdict()
      print "m.start(2):", m.start(2)
      print "m.end(2):", m.end(2)
      print "m.span(2):", m.span(2)
      print r"m.expand(r‘\g<2> \g<1>\g<3>‘):", m.expand(r‘\2 \1\3‘)

      ### output ###
      # m.string: hello world!
      # m.re: <_sre.SRE_Pattern object at 0x016E1A38>
      # m.pos: 0
      # m.endpos: 12
      # m.lastindex: 3
      # m.lastgroup: sign
      # m.group(1,2): (‘hello‘, ‘world‘)
      # m.groups(): (‘hello‘, ‘world‘, ‘!‘)
      # m.groupdict(): {‘sign‘: ‘!‘}
      # m.start(2): 6
      # m.end(2): 11
      # m.span(2): (6, 11)
      # m.expand(r‘\2 \1\3‘): world hello!

时间: 2024-10-27 18:40:23

爬虫学习----正则表达式的相关文章

python3网络爬虫学习——正则表达式

正则表达式是处理字符串的强大工具,有着自己的语法结构. 1.实例引入 可以使用开源中国的 http://tool.oschina.net/regex# 可以看到有许多匹配项,正则表达式匹配就是按照一定规则将特定的文本提取出来.比如电子邮件开头是一段字符串,然后是一个@符号,最后是某个域名,这是由特定的格式组成的.至于匹配的具体规则,可以参见这个博客https://www.jianshu.com/p/773c32dcd254     一些规则的汇总可以看这个博主https://www.cnblog

Python爬虫学习系列教程

Python爬虫学习系列教程 大家好哈,我呢最近在学习Python爬虫,感觉非常有意思,真的让生活可以方便很多.学习过程中我把一些学习的笔记总结下来,还记录了一些自己实际写的一些小爬虫,在这里跟大家一同分享,希望对Python爬虫感兴趣的童鞋有帮助,如果有机会期待与大家的交流. Python版本:2.7 一.爬虫入门 1. Python爬虫入门一之综述 2. Python爬虫入门二之爬虫基础了解 3. Python爬虫入门三之Urllib库的基本使用 4. Python爬虫入门四之Urllib库

python网络爬虫学习资料

第一:Python爬虫学习系列教程(来源于某博主:http://cuiqingcai.com/1052.html) Python版本:2.7 整体目录: 一.爬虫入门 1. Python爬虫入门一之综述 2. Python爬虫入门二之爬虫基础了解 3. Python爬虫入门三之Urllib库的基本使用 4. Python爬虫入门四之Urllib库的高级用法 5. Python爬虫入门五之URLError异常处理 6. Python爬虫入门六之Cookie的使用 7. Python爬虫入门七之正则

Python爬虫学习:三、爬虫的基本操作流程

本文是博主原创随笔,转载时请注明出处Maple2cat|Python爬虫学习:三.爬虫的基本操作与流程 一般我们使用Python爬虫都是希望实现一套完整的功能,如下: 1.爬虫目标数据.信息: 2.将数据或信息存入数据库中: 3.数据展示,即在Web端进行显示,并有自己的分析说明. 这次我先介绍第一个功能中所需要实现的基本操作: 爬虫的基本操作:      表示必须步骤           表示可选步骤 导入爬虫所需要的库(如:urllib.urllib2.BeautifulSoup.Scrap

Python爬虫学习路线,强烈建议收藏这十一条

(一)如何学习Python 学习Python大致可以分为以下几个阶段: 1.刚上手的时候肯定是先过一遍Python最基本的知识,比如说:变量.数据结构.语法等,基础过的很快,基本上1~2周时间就能过完了,我当时是在这儿看的基础:Python 简介 | 菜鸟教程 2.看完基础后,就是做一些小项目巩固基础,比方说:做一个终端计算器,如果实在找不到什么练手项目,可以在 Codecademy - learn to code, interactively, for free 上面进行练习. 如果时间充裕的

爬虫学习 05.Python网络爬虫之三种数据解析方式

爬虫学习 05.Python网络爬虫之三种数据解析方式 引入 回顾requests实现数据爬取的流程 指定url 基于requests模块发起请求 获取响应对象中的数据 进行持久化存储 其实,在上述流程中还需要较为重要的一步,就是在持久化存储之前需要进行指定数据解析.因为大多数情况下的需求,我们都会指定去使用聚焦爬虫,也就是爬取页面中指定部分的数据值,而不是整个页面的数据.因此,本次课程中会给大家详细介绍讲解三种聚焦爬虫中的数据解析方式.至此,我们的数据爬取的流程可以修改为: 指定url 基于r

爬虫学习 08.Python网络爬虫之图片懒加载技术、selenium和PhantomJS

爬虫学习 08.Python网络爬虫之图片懒加载技术.selenium和PhantomJS 引入 今日概要 图片懒加载 selenium phantomJs 谷歌无头浏览器 知识点回顾 验证码处理流程 今日详情 动态数据加载处理 一.图片懒加载 什么是图片懒加载? 案例分析:抓取站长素材http://sc.chinaz.com/中的图片数据 #!/usr/bin/env python # -*- coding:utf-8 -*- import requests from lxml import

爬虫学习 16.Python网络爬虫之Scrapy框架(CrawlSpider)

爬虫学习 16.Python网络爬虫之Scrapy框架(CrawlSpider) 引入 提问:如果想要通过爬虫程序去爬取"糗百"全站数据新闻数据的话,有几种实现方法? 方法一:基于Scrapy框架中的Spider的递归爬取进行实现(Request模块递归回调parse方法). 方法二:基于CrawlSpider的自动爬取进行实现(更加简洁和高效). 今日概要 CrawlSpider简介 CrawlSpider使用 基于CrawlSpider爬虫文件的创建 链接提取器 规则解析器 今日详

Javascript学习-------正则表达式

Javascript RegExp对象(正则表达式对象): RegExp:是一种模式. 当你要检索某个文本时,可以使用这种模式来描述要检索的内容. 创建RegExp对象: 使用RegExp的显式构造函数创建:             new RegExp("pattern"[,flags])        使用RegExp的隐式构造函数创建:             /pattern/[flags] 解释:pattern是要使用的正则表达式模式文本 flags设置正则表达式的标志信息