Python爬虫准备——requests和bs4安装

昨天想要写一下Python爬虫试试,但没想到导入的包并没有安装好。有两个这样的包,requests和bs4,requests是网络请求,bs4是html解析器。

那么接下来就说一下如何安装这两个包

一、用指令安装(pip install ……)

  大体上来说就是,打开DOS(命令提示符),进入到你安装Python环境的目录下,找到Scripts目录并进入,然后执行指令

  进入DOS有两种方法:

  1.Win+R,输入cmd

  

   然后点击确定即可进入

   2.Win+S,打开搜索框,搜索cmd并进入

  

  

   进入以后,默认的位置在C盘你登录的用户下:

  

    接下来我们就要切换到指定目录下啦(我的路劲是E:\Python\Scripts,这是我当初安装Python环境时自定义的位置)

   可以先换到E盘,再输入(windows不区分大小写)

cd python\scripts

  接下来输入指令即可

pip install requests bs4

   这时系统提醒我要升级pip,指令已经给出了,直接复制它给出的指令

   接下来开始更新

  再次输入之前的指令即可。

二、打开pycharm软件安装(适用于pycharm用户)

  打开pycharm,点击左上角file,找到setting(Ctrl+Alt+S),进入后在你工作目录下找到Project Interpreter选项(我的是已经安装好的)

  然后点击右边的“+”,在搜索框里分别搜索requests和bs4,然后安装即可(下面给出安装requests的例子,bs4也是一样的)

安装完毕!

原文地址:https://www.cnblogs.com/bwjblogs/p/11857272.html

时间: 2024-10-09 20:16:51

Python爬虫准备——requests和bs4安装的相关文章

【Python爬虫】Requests库的安装

1.按照普通的pip不能行,说find不能 有位小杰控的大牛说了一句:换一个国内的更新源吧, pip install requests -i http://pypi.douban.com/simple --trusted-host=pypi.douban.com 然后就好了! 原文地址:https://www.cnblogs.com/naraka/p/8994173.html

Python爬虫进阶之Scrapy框架安装配置

Python爬虫进阶之Scrapy框架安装配置 初级的爬虫我们利用urllib和urllib2库以及正则表达式就可以完成了,不过还有更加强大的工具,爬虫框架Scrapy,这安装过程也是煞费苦心哪,在此整理如下. Windows 平台: 我的系统是 Win7,首先,你要有Python,我用的是2.7.7版本,Python3相仿,只是一些源文件不同. 官网文档:http://doc.scrapy.org/en/latest/intro/install.html,最权威哒,下面是我的亲身体验过程. 1

学习Python爬虫第一步,Bs4库

首先是安装BS4库 因为Python的pip真的很方便,所以一般不出意外,只需要一个pip就足以完成一个库的安装. pip install beautifulsoup4 名字很长不要记错名字呦. 想要利用爬虫获得我们想要的内容,就一定要学会一个解析HTML的库. 我们总不能用正则表达式,匹配出我们需要的内容,那任务量一定是巨大的,繁琐的,很少有人去那么做,除非你就是需要这个网页中特定的元素. 怎么使用BS4库? Bs4库和有些库还有一些不同,像我们学习爬虫一定要学习的requests库,我们只需

芝麻HTTP:Python爬虫进阶之Scrapy框架安装配置

初级的爬虫我们利用urllib和urllib2库以及正则表达式就可以完成了,不过还有更加强大的工具,爬虫框架Scrapy,这安装过程也是煞费苦心哪,在此整理如下. Windows 平台: 我的系统是 Win7,首先,你要有Python,我用的是2.7.7版本,Python3相仿,只是一些源文件不同. 官网文档:http://doc.scrapy.org/en/latest/intro/install.html,最权威哒,下面是我的亲身体验过程. 1.安装Python 安装过程我就不多说啦,我的电

python爬虫之requests模块

一. 登录事例 a. 查找汽车之家新闻 标题 链接 图片写入本地 import requests from bs4 import BeautifulSoup import uuid response = requests.get( 'http://www.autohome.com.cn/news/' ) response.encoding = 'gbk' soup = BeautifulSoup(response.text,'html.parser') # HTML会转换成对象 tag = so

python爬虫之requests+selenium+BeautifulSoup

前言: 环境配置:windows64.python3.4 requests库基本操作: 1.安装:pip install requests 2.功能:使用 requests 发送网络请求,可以实现跟浏览器一样发送各种HTTP请求来获取网站的数据. 3.命令集操作: import requests # 导入requests模块 r = requests.get("https://api.github.com/events") # 获取某个网页 # 设置超时,在timeout设定的秒数时间

python爬虫之requests的基本使用

简介 Requests是用python语言基于urllib编写的,采用的是Apache2 Licensed开源协议的HTTP库,Requests它会比urllib更加方便,可以节约我们大量的工作. 一.安装 pip快速安装 1 pip install requests 二.使用 1.先上一串代码 1 2 3 4 5 6 7 8 9 10 11 12 13 14 import requests response  = requests.get("https://www.baidu.com"

python爬虫之requests库

requests库介绍 发送http请求的第三方库,兼容python2和python3 安装: pip install requests 使用: import requests发送请求response = requests.get(url)response = requests.post(url) 响应内容请求返回的值是一个response对象,是对http协议服务端返回数据的封装response对象主要属性和方法: response.status_code  返回码  response.hea

python: 爬虫利器requests

requests并不是系统自带的模块,他是第三方库,需要安装才能使用 requests库使用方式 闲话少说,来,让我们上代码:简单的看一下效果: import requests requests = requests.session() headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:57.0) Gecko/20100101 Firefox/57.0' } url = "http://httpbin.o