python爬duitang的摄影类图片

list里的元素以逗号隔开,以[]包围,其中元素的类型任意

官方一点的说:list列表是一个任意类型的对象的位置相关的有序集合。它没有固定的大小(1),通过对偏移量

(2)进行赋值以及其他各种列表的方法进行调用,能够修改列表的大小

(1)尽管列表没有固定的大小,Python仍不允许引用不存在的元素,超出列表末尾之外的索引会导致错误,赋值也是。

(2)我们可以通过偏移量对列表进行索引,切片等操作,而且索引值可为负值。

list的主要属性

<1>任意对象的有序集合(从左到右的顺序)

<2>通过偏移量读取

<3>可变长度、异构以及任意嵌套(可以创建列表的子列表的子列表...)

<4>属于可变序列的分类(可在原处修改,序列操作在列表和字符串中工作方式相同,区别就是列表可变,可以执行

删除、索引赋值等操作。字符串不可变,不能执行这些)

<5>对象引用数组

常用list操作

<1>L=[]    一个空列表  L=list()

<2>L=[0,1,2,3]   四项:索引为0-3

<3>L=[1,[2,3]]   嵌套子列表

<4>L[i] L[i:j] len(L)   索引、分片、求长度

<5>L1+L2        合并

<6>L * 3        重复3次

<7>for x in L : print x  迭代打印

<8>L.append(x) 插入

<9>L.extend([x,y,z])  增长

<10>L.insert(I,x)    在I处插入x

<11>L.Count(x)      返回x出现的次数

<12>L.sort()         排序

<13>L.reverse        反

<14>del L[K]         删除

<15>del L[m,n]

<16>L.pop()

<17>L.remove(x)

<18>L[i:j]=[]

<19>x in L

range()和split()函数得到的都是list

L=range(-5,5)  -> L=[-5,-4,-3,-2,-1,0,1,2,3,4]

L=‘this is a test‘.split()  ->  L=[‘this‘,‘is‘,‘a‘,‘test‘]

注:

{1}索引、分片的赋值是直接在原list上直接修改的。

如<18>分片的赋值可以看做(3)将原片删除,再把数据插入。注:当赋值与分片的值发生重叠时,需要详细的分析

比如L[2:5] = L[3:6] 是可行的,在删除2:5之前已经把3:6的数据提出了,删除之后再插入2:5。

(3)实际情况并非如此,但这有助于你理解为什么删除的数目不需要与插入的数目相等。

比如说L=[1,2,3,4]  L[1:2]=[4,5] 此时L=[1,4,5,3,4]    L[1:2]=[]是把第二项删除

{2}L.append(x)与L+[x]的结果类似,不同的是前者是原处修改L,而后者会生成新的列表。

{3}对于sort,我们可以通过传入关键字参数来修改排序行为。在2.6以及之前的版本中,不同类型的数据也是可以

排序的,这一次序是按照类型名称定的。例如,所有整数都小于所有字符串..等等。在3.0中就不一样了,不同类型

排序会发生异常。

{4}要当心append和sort都是在原处直接修改列表,返回为None。如果编辑类似L=L.append(x)的语句,将不会得到

L修改后的值(实际上会失去整个列表的引用),所以没有理由重新赋值。

{5}分片[i:j]的值,包括左边界,不包括右边界。

L=[0,1,2] L[1:]=[] -> L=[0]   L[0]=[]->L=[[]]

Python中还包括了一个更高级的操作称为列表解析表达式,由于比较复杂,以后再单独写一篇说明。

实现命令行指定一个数值文件,输出最大值和最小值

import sys   #为了获得命令行参数

if len(sys.argv) != 2

    print"please supply a filename"

    raise SystemExit(1)

f = open(sys.argv[1])  

lines = f.readlines()       #打开文件 将所有输入行存在一个字符串列表中

f.close

fvalues=[float(line)  for line in lines]     #所有字符串循环,并对每个元素float 构造一个新列表

print "The minimum value is ",min(fvalues)               

print "The maximum value is ",max(fvalues)       #通过内置函数得到最大值和最小值

参考<<learning python>>

python爬duitang的摄影类图片

时间: 2024-10-01 06:51:54

python爬duitang的摄影类图片的相关文章

python爬取某个网站的图片并保存到本地

python爬取某个网站的图片并保存到本地 #coding:utf-8 import urllib import re import sys reload(sys) sys.setdefaultencoding('gb2312') #获取整个页面的数据 def getHtml (url): page = urllib.urlopen(url) html = page.read() return html #保存图片到本地 def getImg(html): reg = r'src="(.+?\.

python爬取某个网页的图片-如百度贴吧

python爬取某个网页的图片-如百度贴吧 作者:vpoet 日期:大约在冬季 注:随意copy,不用告诉我 #coding:utf-8 import urllib import urllib2 import re if __name__ =="__main__": rex=r'src="(http://imgsrc.baidu.com/forum/w%3D580.*?\.jpg)"'; Response=urllib2.urlopen("http://t

python爬取煎蛋网图片

py2版本: #-*- coding:utf-8 -*-#from __future__ import unicode_literimport urllib,urllib2,timeimport re,sys,osheaders={'Referer':'http://jandan.net/','User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2

python 爬取煎蛋网图片

__author__ = mkdir(path):     os     path = path.strip()  path = path.rstrip()  mkfile = os.path.exists(path)     mkfile:         ()     :         os.makedirs(path)         () urllib, urllib2, re geturl(url):     file_lists = []     req = urllib2.Req

python爬取网站美女图片

今天周五,项目刚刚上线完,有些时间,闲着无聊,继续复习爬虫,这次打算爬取网站的美女图片.得先找到目标,然后目标网站还不会反爬虫,因为自己只是小白,好了开始. 寻找目标,发现了目标,哈哈 http://www.meizitu.com 里面图片按专题分类.先看下页面找出相关源码 页面 源码 即只要抓出来图片集的link跟图片集里面的link对应的jpg就可以了, 可以用beautifulsoup或者正则匹配,我这里用正则匹配需要的link.然后遍历整个网站就可以了 请看源码解释 #!bin/pyth

Python 爬取煎蛋网妹子图片

1 #!/usr/bin/env python 2 # -*- coding: utf-8 -*- 3 # @Date : 2017-08-24 10:17:28 4 # @Author : EnderZhou ([email protected]) 5 # @Link : http://www.cnblogs.com/enderzhou/ 6 # @Version : $Id$ 7 8 import requests 9 from bs4 import BeautifulSoup as bs

python爬取暖享图片

目标网页:http://www.axlcg.com/wmxz/1.html 首先取得第一页每一个图集的url 可以看到图集的url实在ul class 为homeboy-ul clearfix line-dot底下的li中的a标签里面,所以我们要 一层一层地接近目标. allsoup = BeautifulSoup(allurldigit) # 得到解析后的html allpage = allsoup.find('ul', attrs={'class': 'homeboy-ul clearfix

没有内涵段子可以刷了,利用Python爬取段友之家贴吧图片和小视频(含源码)

由于最新的视频整顿风波,内涵段子APP被迫关闭,广大段友无家可归,但是最近发现了一个"段友"的app,版本更新也挺快,正在号召广大段友回家,如下图,有兴趣的可以下载看看(ps:我不是打广告的,没收广告费的) 同时,之前同事也发了一个贴吧的段子聚居地,客官稍等,马上奉上连接:段友之家?https://tieba.baidu.com/f?ie=... 然后呢,看到上面,确实好多段友在上面,于是乎,我就想爬取他们的图片和小视频,就有了这篇文章的主题: 其实吧,用Python爬取网站数据是最基

使用python爬取csdn博客访问量

最近学习了python和爬虫,想写一个程序练练手,所以我就想到了大家都比较关心的自己的博客访问量,使用python来获取自己博客的访问量,这也是后边我将要进行的项目的一部分,后边我会对博客的访问量进行分析,以折线图和饼图等可视化的方式展示自己博客被访问的情况,使自己能更加清楚自己的哪些博客更受关注,博客专家请勿喷,因为我不是专家,我听他们说专家本身就有这个功能. 一.网址分析 进入自己的博客页面,网址为:http://blog.csdn.net/xingjiarong 网址还是非常清晰的就是cs