第一课:网络爬虫准备

本课知识路线

  Requests框架:自动爬取HTML页面与自动网络请求提交

  robots.txt:网络爬虫排除标准

  BeautifulSoup框架:解析HTML页面

  Re框架:正则框架,提取页面关键信息

  Scrapy框架:网络爬虫原理介绍,专业爬虫框架介绍

#抓取百度页面
import requests

r = requests.get(‘http://www.baidu.com‘)
print(r.status_code)   #状态码,抓取成功200
r.encoding = ‘utf-8‘  #把编码改为utf-8
print(r.text)          #输出抓取内容

Requests库的七个主要方法

requests.request():构造一个请求,支持以下方法的基础方法
requests.get():获取HTML页面的主要方法,对应HTTP的GET
requests.head():获取HTML页面的头部信息方法,对应HTTP的HEAD
requests.post():向HTML页面提交POST请求方法,对应HTTP的POST
requests.put():向HTML页面提交PUT请求方法,对应HTTP的PUT
requests.patch():向HTML页面提交局部修改请求方法,对应HTTP的PATCH
requests.delete():向HTML页面提交删除请求方法,对应HTTP的DELETE

时间: 2024-10-05 08:22:29

第一课:网络爬虫准备的相关文章

第一章 网络爬虫简介

本章将介绍如下主题: 网络爬虫领域介绍 爬虫的合法与非法性 对目标网站进行背景调研 逐步完善一个高级网络爬虫 1.1 网络爬虫的使用场景 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本.另外一些不常使用的名字还有蚂蚁.自动索引.模拟程序或者蠕虫. 爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件.  

使用Python写的第一个网络爬虫程序

今天尝试使用python写一个网络爬虫代码,主要是想访问某个网站,从中选取感兴趣的信息,并将信息按照一定的格式保存早Excel中. 此代码中主要使用到了python的以下几个功能,由于对python不熟悉,把代码也粘贴在下面. 1, 使用url打开网站网页 import urllib2 data = urllib2.urlopen(string_full_link).read().decode('utf8') print data 2,使用正则表达式匹配 import re #一般的英文匹配 r

第一个网络爬虫程序

import re import requests    #启动两个模块,pycharm5.0.1里貌似不用特别启动os模块,也可以open# html=requests.get("http://tu.xiaopi.com/tuku/3823.html") AAA=html.text     #从目标网站上捕获源代码# body=re.findall('<img src="(.*?)" alt=',AAA,re.S) #此时你肯定要先看一眼源代码,找到你需要找

第一个网络爬虫——简单的抓取网页

早上还有实验验收,先上代码,早上再写. import urllib2 import re from bs4 import BeautifulSoup content = urllib2.urlopen("http://www.cnblogs.com/ly941122/").read(); soup=BeautifulSoup(content) siteUrls = soup.findAll('div',{'class':'postTitle'}) tag=re.compile('<

第一个网络爬虫

import requestsres=requests.get('http://news.sina.com.cn/china/')res.encoding='utf-8'print(res.text)

我的第一个网络爬虫 C#版 福利 程序员专车

最近在自觉python,看到了知乎上一篇文章(https://www.zhihu.com/question/20799742),在福利网上爬视频... 由是我就开始跟着做了,但答主给的例子是基于python2.x的,而我开始学的是3.x,把print用法改了以后还是有很多模块导入不了,新手又不知道该怎么解决. 于是,为了学(shang)习(che),我就把其中的一段代码用C#写了一次.在加了一些延时的情况下,一会儿硬盘就被占用了3个多g了...同学们,要注意身体啊 下面贴出代码..代码中故意留了

用Python写网络爬虫(高清版)PDF

用Python写网络爬虫(高清版)PDF 百度网盘 链接:https://pan.baidu.com/s/1kdRFAEuze-A9ToWVXHoCXw 提取码:8ib1 复制这段内容后打开百度网盘手机App,操作更方便哦 内容简介  · · · · · · 作为一种便捷地收集网上信息并从中抽取出可用信息的方式,网络爬虫技术变得越来越有用.使用Python这样的简单编程语言,你可以使用少量编程技能就可以爬取复杂的网站. <用Python写网络爬虫>作为使用Python来爬取网络数据的杰出指南,

下载大数据实战课程第一季Python基础和网络爬虫数据分析

python语言近年来越来越被程序相关人员喜欢和使用,因为其不仅简单容易学习和掌握,而且还有丰富的第三方程序库和相应完善的管理工具:从命令行脚本程序到gui程序,从B/S到C/S,从图形技术到科学计算,软件开发到自动化测试,从云计算到虚拟化,所有这些领域都有python的身影:python已经深入到程序开发的各个领域,并且会越来越多的人学习和使用. 大数据实战课程第一季Python基础和网络爬虫数据分析,刚刚入手,转一注册文件,视频的确不错,可以先下载看看:链接:http://pan.baidu

TCP/IP 网络精讲:开宗明义及第一课

内容简介 1.课程大纲 2.第一部分第一课:互联网历史 3.第一部分第二课预告:互联网的创立,OSI七层模型 课程大纲 我们将带大家一起来学习很多网络方面的技能,向大家介绍TCP/IP的基础知识点.你也将学会如何搭建自己的网络,以及解决一些上网时遇到的难题. 如果你没有任何网络基础,没有关系,这个课程是面向所有人的. 这将是一次浩瀚的旅程:鹰击长空,鱼翔浅底,万类霜天竞自由(小编你可以了...) 我们的课程分为四大部分: 如何在本地网络进行通信 - 互联网的历史 - 互联网的创立,OSI七层模型