第一次写python爬虫

花了4天终于把写完了把国内的几个漏洞平台爬完了,第一次写py,之前一直都在说学习,然后这周任务是把国内的漏洞信息爬取一下。花了1天学PY,剩下的1天一个。期间学习到了很多。总结如下:

====================================================================

=====================================================================================================

期间用了几个不错的类库:

urllib2 re chardet sys bs4 BeautifulSoup requests json

比如获取某个标签beautifulsoup,find/findAll/find_all

获取标签的内容XXX.contents[i]

还有AJAX的爬虫:requests.post()期间用了这个方法和别的来爬的时候需要POST,但是一直是GET,纠结了一个晚上,最后问了腾讯某小伙伴解决了问题

只要是data=xxx 都会使用urlencode编码,所以一直是GET

返回的是JSON,如果用字符串处理的话相当麻烦,问了长亭的朋友,推荐用了Json的类库(爬AJAX的时候最好设置个头)

result=requests.post(url,json=payload,headers=headers)#print result.textcontent=json.loads(result.text)text=content[‘result‘]

=========================
apps=json.dumps(j)app_json=json.loads(apps)time=app_json[‘date‘]

用起来会方便了很多很多,如果需要搞PY爬虫的时候可以尝试下。因为也是刚学,代码只是实现了功能,代码的架构,没有加线程,速度也不是很好,后期可能会去优化。

如果你遇到什么问题,欢迎一起学习,可以发到我的邮箱:sevck#jdsec.com :)

###############

最后说一下,建议别在WINDOWS下写PY,建议LINUX

时间: 2024-12-19 06:16:46

第一次写python爬虫的相关文章

零基础写python爬虫之urllib2使用指南

零基础写python爬虫之urllib2使用指南 前面说到了urllib2的简单入门,下面整理了一部分urllib2的使用细节. 1.Proxy 的设置 urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy. 如果想在程序中明确控制 Proxy 而不受环境变量的影响,可以使用代理. 新建test14来实现一个简单的代理Demo: import urllib2   enable_proxy = True   proxy_handler = urllib2.Prox

零基础写python爬虫之使用Scrapy框架编写爬虫

网络爬虫,是在网上进行数据抓取的程序,使用它能够抓取特定网页的HTML数据.虽然我们利用一些库开发一个爬虫程序,但是使用框架可以大大提高效率,缩短开发时间.Scrapy是一个使用Python编写的,轻量级的,简单轻巧,并且使用起来非常的方便.使用Scrapy可以很方便的完成网上数据的采集工作,它为我们完成了大量的工作,而不需要自己费大力气去开发. 首先先要回答一个问题. 问:把网站装进爬虫里,总共分几步? 答案很简单,四步: 新建项目 (Project):新建一个新的爬虫项目 明确目标(Item

Python日记——第一次写python

[你好世界] 1 #!/usr/bin/env python 2 # -*- coding: utf-8 -*- 3 4 print ('hello,world') 当行注视:# 被注释内容 多行注释:""" 被注释内容 """ [打印用户输入用户名和密码] 1 a1 = raw_int("UserName") 2 a2 = getpass.getpass("PassWord") 3 4 print(a1)

大量 python 爬虫源码分享--说说 python 爬虫这件小事

没有爬虫就没有互联网,越来越觉得写 Python 爬虫原来是一件快乐而高兴的事情,以下是本人收集整理的一批 python 爬虫代码,顺便分享到了别的网站上,喜欢的下下来看看吧. 内容: yunpan.360.cn.py 360 网盘爬虫 ed2k_search.py 电驴爬虫 music.163.com.py 163 音乐爬虫 music.baidu.com.py 百度音乐爬虫 pan.baidu.com.py 百度网盘爬虫 115.py 115 爬虫 91porn.py 91porn 爬虫 等

Python爬虫入门教程 2-100 妹子图网站爬取

前言 从今天开始就要撸起袖子,直接写Python爬虫了,学习语言最好的办法就是有目的的进行,所以,接下来我将用10+篇的博客,写爬图片这一件事情.希望可以做好. 为了写好爬虫,我们需要准备一个火狐浏览器,还需要准备抓包工具,抓包工具,我使用的是CentOS自带的tcpdump,加上wireshark ,这两款软件的安装和使用,建议你还是学习一下,后面我们应该会用到. 网络请求模块requests Python中的大量开源的模块使得编码变的特别简单,我们写爬虫第一个要了解的模块就是requests

Python爬虫入门【2】:妹子图网站爬取

妹子图网站爬取---前言 从今天开始就要撸起袖子,直接写Python爬虫了,学习语言最好的办法就是有目的的进行,所以,接下来我将用10+篇的博客,写爬图片这一件事情.希望可以做好. 为了写好爬虫,我们需要准备一个火狐浏览器,还需要准备抓包工具,抓包工具,我使用的是CentOS自带的tcpdump,加上wireshark ,这两款软件的安装和使用,建议你还是学习一下,后面我们应该会用到. 妹子图网站爬取---网络请求模块requests 妹子图网站爬取---安装requests 打开终端:使用命令

第一次写,python爬虫图片,操作excel。

第一次写博客,其实老早就注册博客园了,有写博客的想法,就是没有行动,总是学了忘,忘了丢,最后啥都没有,电脑里零零散散,东找找,西看看,今天认识到写博客的重要性. 最近闲着看了潭州教育的在线直播课程,颇受老师讲课实用有感.只作为自己笔记学习,我们都知道学习一门编程都是先照抄,在创作.这里完全按照老师讲解,照抄作为学习. 一.Python抓取豆瓣妹子图. 工具:python3.6.0;bs4.6.0;xlwt(1.2.0)需要版本对应,之前就安装了bs4但是运行的时候提示版本不对应.可以在线升级:p

写个 Python 爬虫好累

这里将会记录我在学习写[Python爬虫]脚本过程中遇到的各种各样的"问题",希望对后来者有所帮助. 1.SGMLParser SGMLParser 模块用于解析网页标签,使用期间遇到如下Error: AttributeError: HtmlPars instance has no attribute 'rawdata' 出现的原因是[重写 Reset 函数时未调用父类 Reset],解决方法很简单,调用一下就完事了 class HtmlPars(SGMLParser): def re

5个python爬虫教材,让小白也有爬虫可写,含视频教程!

认识爬虫 网络爬虫,如果互联网是一张蜘蛛网,网络爬虫既是一个在此网上爬行的蜘蛛,爬了多少路程即获取到多少数据. python写爬虫的优势 其实以上功能很多语言和工具都能做,但是用python爬取的速度更快,代码最简单,总而言之就是高效!与其它的编程语言作比较,python爬去网站的文档的接口更清晰明了,python的各种包提供给开发者访问网页文档的API.请先静下心看案例介绍.再进入里面寻找视频教程 由认识爬虫可知,在互联网上爬去内容,必然会有访问浏览器这个过程.程序员爬取网站内容必须模拟浏览器