python(十一)

一 内置函数

取字典的索引 和key无序

集合无序,,,,,加 和删

不可变集合

Hash:用于文本校验,如果两个字符串一样,则hash值一样。

查看数据类型

Iter方法  把可迭代对象 变成迭代器对象

max 生成器表达式,,,像循环那样取出最大值。

3的平方,然后取余

指定步长

倒着取

切片,并指定步长。

指定取步长,正取 和 倒取

把顺序反转

保留三位小数

切片

求和  sum只能计算int类型的数字,sum支持迭代器,和max支持迭代器一样。

左和右一一对应

for 循环接着可以用for循环

Lambda 本身不需要名字,返回表达式的结果,此处返回None ,不加f是定义,不执行

lambda 就用一次

字符串比较

map映射

reduce合并:0+1....+99

Filter:   过滤布尔值为True的值

从小到大排列

反转,从大到小排列,默认是False

二 递归

修改递归限制层级

间接调用

递归===》》递推+回溯

时间: 2024-08-06 09:49:39

python(十一)的相关文章

Python 十一、python网络编程

一.MySQLdb模块 python访问mariadb|mysql依赖于第三方模块MySQLdb,在pypi上下载下来 路径:https://pypi.python.org/pypi/MySQL-python/ MySQL-python依赖于easy_install那先安装setuptools,这里省略 [[email protected] ~]# unzip MySQL-python-1.2.5.zip [[email protected] ~]# cd MySQL-python-1.2.5

自学Python十一 Python爬虫总结

通过几天的学习与尝试逐渐对python爬虫有了一些小小的心得,我们渐渐发现他们有很多共性,总是要去获取一系列的链接,读取网页代码,获取所需内容然后重复上面的工作,当自己运用的越来越熟练之后我们就会尝试着去总结一下爬虫的共性,试着去写个helper类以避免重复性劳动. 参考:用python爬虫抓站的一些技巧总结 zz 1.访问网站 #最简单的得到网页代码的方法 1 import urllib2 2 response = urllib2.urlopen("http://www.xx.com"

python爬虫积累(一)--------selenium+python+PhantomJS的使用

最近按公司要求,爬取相关网站时,发现没有找到js包的地址,我就采用selenium来爬取信息,相关实战链接:python爬虫实战(一)--------中国作物种质信息网 一.Selenium介绍 Selenium 是什么?一句话,自动化测试工具.它支持各种浏览器,包括 Chrome,Safari,Firefox 等主流界面式浏览器,如果你在这些浏览器里面安装一个 Selenium 的插件,那么便可以方便地实现Web界面的测试.换句话说叫 Selenium 支持这些浏览器驱动.Selenium支持

「UI 测试自动化selenium」汇总

<selenium 基础之java实现> selenium RC 环境配置 菜鸟学自动化测试(一)----selenium IDE 菜鸟学自动化测试(二)----selenium IDE 功能扩展 菜鸟学自动化测试(三)----selenium 命令 菜鸟学自动化测试(四)----selenium 命令之验证页面元素 菜鸟学自动化测试(五)-----selenium命令之定位页面元素 菜鸟学自动化测试(六)----selenium 命令之文字范本匹配 菜鸟学自动化测试(七)----seleni

234234

<div id="article_details" class="details"> <div class="article_title"> <span class="ico ico_type_Original"></span> <h1> <span class="link_title"><a href="/fgf00/

初学 Python(十一)——切片

初学 Python(十一)--切片 初学 Python,主要整理一些学习到的知识点,这次是切片. #-*- coding:utf-8 -*- ''''' 切片 ''' L = ['name','age','sex','address','company'] #取前2个 print L[0:2] print L[:2] #取倒数第一个 print L[-1] #取后两个 print L[-2:] #取倒数第二个 print L[-2:-1] print len(L) #隔一个数取一次,从第一个数开

第三百七十一节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)用Django实现我的搜索以及热门搜索

第三百七十一节,Python分布式爬虫打造搜索引擎Scrapy精讲-elasticsearch(搜索引擎)用Django实现我的搜索以及热门 我的搜素简单实现原理我们可以用js来实现,首先用js获取到输入的搜索词设置一个数组里存放搜素词,判断搜索词在数组里是否存在如果存在删除原来的词,重新将新词放在数组最前面如果不存在直接将新词放在数组最前面即可,然后循环数组显示结果即可 热门搜索实现原理,当用户搜索一个词时,可以保存到数据库,然后记录搜索次数,利用redis缓存搜索次数最到的词,过一段时间更新

Python开发【第二十一篇】:Web框架之Django【基础】

Python开发[第二十一篇]:Web框架之Django[基础] 猛击这里:http://www.cnblogs.com/wupeiqi/articles/5237704.html Python之路[第十六篇]:Django[基础篇] Python的WEB框架有Django.Tornado.Flask 等多种,Django相较与其他WEB框架其优势为:大而全,框架本身集成了ORM.模型绑定.模板引擎.缓存.Session等诸多功能. 基本配置 一.创建django程序 终端命令:django-a

七日Python之路--第十一天

(一)关于模板,Template 可以在项目根目录下的settings.py 配置文件中,声明 import os BASE_DIR = os.path.dirname(os.path.dirname(__file__)) TEMPLATE_DIRS = os.path.join(BASE_DIR, 'templates') 这样模板的默认搜索就是在根目录的'templates'文件下进行寻找. 但是,感觉还是不声明,直接使用默认的搜索路径比较好.当不进行声明时,默认搜索路径是相应的app应用目

第三百六十一节,Python分布式爬虫打造搜索引擎Scrapy精讲—倒排索引

第三百六十一节,Python分布式爬虫打造搜索引擎Scrapy精讲-倒排索引 倒排索引 倒排索引源于实际应用中需要根据属性的值来查找记录.这种索引表中的每一项都包括一个属性值和具有该属性值的各记录的地址.由于不是由记录来确定属性值,而是由属性值来确定记录的位置,因而称为倒排索引(inverted index).带有倒排索引的文件我们称为倒排索引文件,简称倒排文件(inverted file). 倒排索引原理 就是将一句话进行分词并记录分词所存在的文章,当用户搜索词时可以直接查找到当前词所存在的文