第一次写,python爬虫图片,操作excel。

  第一次写博客,其实老早就注册博客园了,有写博客的想法,就是没有行动,总是学了忘,忘了丢,最后啥都没有,电脑里零零散散,东找找,西看看,今天认识到写博客的重要性。

  最近闲着看了潭州教育的在线直播课程,颇受老师讲课实用有感。只作为自己笔记学习,我们都知道学习一门编程都是先照抄,在创作。这里完全按照老师讲解,照抄作为学习。

一、Python抓取豆瓣妹子图。

  工具:python3.6.0;bs4.6.0;xlwt(1.2.0)需要版本对应,之前就安装了bs4但是运行的时候提示版本不对应。可以在线升级:pip install update buautifulsoup4

  1.pip list,可以查看本地安装。

  

  1.爬取豆瓣妹子图,知道其地址,url = ‘http://www.dbmeinv.com/?pager_offset=1‘。

  2.查看网页源代码,F12,network,随便找个左边捕捉的网页信息,找到User-agent,目的主要是为了模仿浏览器登录,防止反爬虫。

找到element元素。我们要的是img标签,中的图片信息,src连接下载地址。

按照老师写所有代码

 1 import urllib
 2 import urllib.request
 3 from bs4 import BeautifulSoup
 4 url = ‘http://www.dbmeinv.com/?pager_offset=1‘
 5 x=0
 6 #获取源码
 7 #自定义函数
 8 #User-Agent模拟浏览器进行访问,反爬虫
 9 def crawl(url):
10     headers={‘User-Agent‘:‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3088.3 Safari/537.36‘}
11     req=urllib.request.Request(url,headers=headers)#创建对象
12     page=urllib.request.urlopen(req,timeout=20)#设置超时
13     contents=page.read()#获取源码
14     #print (contents.decode())
15     soup = BeautifulSoup(contents,‘html.parser‘)#html.parser主要是解析网页的一种形式。
16     my_girl=soup.find_all(‘img‘)#找到所有img标签
17     # 5.获取图片
18     for girl in my_girl:#遍历
19         link=girl.get(‘src‘)#获取src
20         print(link)
21         global x#全局变量
22         # 6.下载 urlretrieve
23         urllib.request.urlretrieve(link,‘image\%s.jpg‘%x)#下载,urlretrieve(需要下载的,路径)
24         x+=1
25         print(‘正在下载第%s张‘%x)
26 #7.多页
27 for page in range(1,10):#range本身自动生成整数序列,爬取多页图片。
28     #page+=1
29     url=‘http://www.dbmeinv.com/?pager_offset={}‘.format(page)#
30     #url = ‘http://www.dbmeinv.com/?pager_offset=%d‘ % page
31     crawl(url)
32
33 print(‘图片下载完毕‘)

最终运行结果, 图片保存在image文件夹下。

二、抓取大众点评,导入excel。赵本宣言老师源码。

import requests
from bs4 import BeautifulSoup
import xlwt
def get_content(url,headers=None,proxy=None):
    html=requests.get(url,headers=headers).content
    return html

def get_url(html):
    soup = BeautifulSoup(html,‘html.parser‘)
    shop_url_list=soup.find_all(‘div‘,class_=‘tit‘)#class在Python是关键字,
    # 列表推导式
    return [i.find(‘a‘)[‘href‘] for i in shop_url_list]

#商品的详细信息,名字,评论,人均
def get_detail_content(html):
    soup=BeautifulSoup(html,‘html.parser‘)
    price=soup.find(‘span‘,id=‘avgPriceTitle‘).text
    evaluation=soup.find(‘span‘,id=‘comment_score‘).find_all(‘span‘,class_=‘item‘)#find_all是有多个,这里三个
    #for i in evaluation:
     #   print(i.text)
    the_star=soup.find(‘div‘,class_=‘brief-info‘).find(‘span‘)[‘title‘]
    title=soup.find(‘div‘,class_=‘breadcrumb‘).find(‘span‘).text
    comments=soup.find(‘span‘,id=‘reviewCount‘).text
    address=soup.find(‘span‘,itemprop=‘street-address‘).text
    print(u‘店名:‘+title)
    for i in evaluation:
        print(i.text)
    print(price)
    print(u‘评论数量:‘+comments)
    print(u‘地址:‘+address.strip())
    print(u‘评价星级:‘+the_star)
    print(‘================‘)
    return (title,evaluation[0].text,evaluation[1].text,evaluation[2].text,price,comments,address,the_star)

if __name__==‘__main__‘:
    items=[]
    start_url=‘https://www.dianping.com/search/category/344/10/‘
    base_url=‘https://www.dianping.com‘
    headers={
        ‘User-Agent‘:‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3088.3 Safari/537.36‘,
        ‘Cookie‘:‘_hc.v=461407bd-5a08-f3fa-742e-681a434748bf.1496365678; __utma=1.1522471392.1496365678.1496365678.1496365678.1; __utmc=1; __utmz=1.1496365678.1.1.utmcsr=baidu|utmccn=(organic)|utmcmd=organic; PHOENIX_ID=0a0102b7-15c6659b548-25fc89; s_ViewType=10; JSESSIONID=E815A43E028078AFA73AF08D9C9E4A15; aburl=1; cy=344; cye=changsha; __mta=147134984.1496365814252.1496383356849.1496383925586.4‘
    }

    start_html=get_content(start_url)
    #一页
    # url_list=get_url(start_html)
    #多页
    url_list = [base_url + url for url in get_url(start_html)]
    for i in url_list:
        detail_html=get_content(i,headers=headers)
        item=get_detail_content(detail_html)
        items.append(item)

    #写excel,txt差别,Excel:xlwg
    newTable=‘DZDP.xls‘
    wb=xlwt.Workbook(encoding=‘utf-8‘)
    ws=wb.add_sheet(‘test1‘)
    headData=[‘商户名字‘,‘口味评分‘,‘环境评分‘,‘服务评分‘,‘人均价格‘,‘评论数量‘,‘地址‘,‘商户评价‘]
    for colnum in range(0,8):
        ws.write(0,colnum,headData[colnum],xlwt.easyxf(‘font:bold on‘))
    index=1
    lens=len(items)
    for j in range(0,lens):
        for i in range(0,8):
            ws.write(index,i,items[j][i])
        index +=1
    wb.save(newTable)

很喜欢锁女神老师,忘老师的用心讲解,收获很多,虽然有些地方还不是很懂,但通过不断的学习,养成写博客的习惯,相信会快速提升。

  

时间: 2024-10-05 05:08:35

第一次写,python爬虫图片,操作excel。的相关文章

第一次写python爬虫

花了4天终于把写完了把国内的几个漏洞平台爬完了,第一次写py,之前一直都在说学习,然后这周任务是把国内的漏洞信息爬取一下.花了1天学PY,剩下的1天一个.期间学习到了很多.总结如下: ==================================================================== =========================================================================================

零基础写python爬虫之urllib2使用指南

零基础写python爬虫之urllib2使用指南 前面说到了urllib2的简单入门,下面整理了一部分urllib2的使用细节. 1.Proxy 的设置 urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy. 如果想在程序中明确控制 Proxy 而不受环境变量的影响,可以使用代理. 新建test14来实现一个简单的代理Demo: import urllib2   enable_proxy = True   proxy_handler = urllib2.Prox

零基础写python爬虫之使用Scrapy框架编写爬虫

网络爬虫,是在网上进行数据抓取的程序,使用它能够抓取特定网页的HTML数据.虽然我们利用一些库开发一个爬虫程序,但是使用框架可以大大提高效率,缩短开发时间.Scrapy是一个使用Python编写的,轻量级的,简单轻巧,并且使用起来非常的方便.使用Scrapy可以很方便的完成网上数据的采集工作,它为我们完成了大量的工作,而不需要自己费大力气去开发. 首先先要回答一个问题. 问:把网站装进爬虫里,总共分几步? 答案很简单,四步: 新建项目 (Project):新建一个新的爬虫项目 明确目标(Item

Python学习笔记-操作excel

python操作excel:使用pip安装即可 一.xlwt:写excel import xlwt book = xlwt.Workbook() #新建一个excel sheet = book.add_sheet('sheet1') #加sheet页 sheet.write(0,0,'姓名') #行.列.写入的内容 sheet.write(0,1,'年龄') sheet.write(0,2,'性别') book.save('stu.xls') #结尾一定要用.xls import xlwt ti

python通过openpyxl操作excel

python 对Excel操作常用的主要有xlwt.xlrd.openpyxl ,前者xlwt主要适合于对后缀为xls比较进行写入,而openpyxl主要是针对于Excel 2007 以上版本进行操作,也就是对后缀为xlsx进行操作. Excel 主要有三大元素,工作簿,Sheet 页,单元格,一个工作簿可以包含多个Sheet页面,而Sheet页由N多个单元格组成,而单元格主要用来存储数据: 一.安装插件 pip install openpyxl 二.创建Excel文件 操作excel之前,首先

用python库openpyxl操作excel,从源excel表中提取信息复制到目标excel表中

现代生活中,我们很难不与excel表打交道,excel表有着易学易用的优点,只是当表中数据量很大,我们又需要从其他表册中复制粘贴一些数据(比如身份证号)的时候,我们会越来越倦怠,毕竟我们不是机器,没法长时间做某种重复性的枯燥操作.想象这样一个场景,我们有个几千行的表要填,需要根据姓名输入其对应的身份证号,但之前我们已经做过一个类似的表,同样的一些人的姓名跟身份证号是完整的,那么我们就需要通过一个个查找姓名,然后把身份证号码复制到我们当前要做的表里去. 当我日复一日重复着这些操作的时候,我都很想有

python+xlrd+xlwt操作excel

介绍 xlrd(读操作),xlwt(写操作) 上述软件下载后,分别解压,之后在cmd命令下分别进入对应的目录中运行 python setup.py install 如果运行过程中提示缺少setuptools,则先运行python ez_setup.py之后在重复上面的步骤 PS:office的版本不要用太高的,建议最好用03版本的,且后缀为xls的 源码bug修复 安装好xlwt3后,找到formula.py文件,将其中的 __slots__ = ["__init__", "

Python安装和操作EXCEL数据

一.windows下面安装Python 1.安装Python 选择的版本是3.5.2版本.windows下面的Python安装一般是通过软件安装包安装而不是命令行,所以首先要在Python的官方主页上面下载最新的Python安装包.下载地址是:https://www.python.org/downloads/ 下载好后,解压到文件夹中,一直点击下一步就OK了.在安装完成之后,打开控制台,输入“Python”,我们能够看到下面的效果: 因为python.exe文件在 Python 目录下,我们还没

python使用xlrd 操作Excel读写

此文章非本人 一.安装xlrd模块 到python官网下载http://pypi.python.org/pypi/xlrd模块安装,前提是已经安装了python 环境. 二.使用介绍 1.导入模块 import xlrd 2.打开Excel文件读取数据 data = xlrd.open_workbook('excelFile.xls') 默认操作桌面上的excel 3.使用技巧 获取一个工作表 table = data.sheets()[0]          #通过索引顺序获取 table =