最近痴迷于Python的逻辑控制,还有爬虫的一方面,原本的目标是拷贝老师上课时U盘的数据。后来发现基础知识掌握的并不是很牢固。便去借了一本Python基础和两本爬虫框架的书。便开始了自己的入坑之旅
言归正传
前期准备
Import requests;我们需要引入这个包。但是有些用户环境并不具备这个包,那么我们就会在引入的时候报错
这个样子相信大家都不愿意看到那么便出现了一下解决方案 我们需要打开Cmd 然后进入到我们安装Python的Scripts目录下输入指令 pip install requests 当然还会出现下面的情况
又是一个报错是不是很烦 那么我们按它的提示升级一下组件 输入命令 python -m pip install --upgrade pip 安装成功后我们便可以正常的导入 requests 那么我们是不是就可以做一下什么了?比如说爬取一个网站的所有信息爬取下来?
import requests; //导入我们需要的库 def GetName(url): //定义一个函数并且传入参数Url resp=requests.get(url); //获取网页上的所有信息 //以文本的模型返回 return resp.text; //定义一个字符串也就是我们要爬取的地址 url="https:xxxxxxxxxx"; //函数方法 def xieru(): //打开一个文本,以写入的方式写入二级制文本 fi=open(‘E://1.txt‘,"wb+"); //接受 con = GetName(url); //返还的文本转换编码格式 ss=con.encode(‘utf-8‘) //写入打开的文本中 fi.write(ss); return 0; xieru(); 哈哈 上面的网址就打码了哦,大家自己脑补。 这是我爬取的内容
原文地址:https://www.cnblogs.com/Mzcc/p/9678253.html
时间: 2024-10-10 07:40:05