Python ===if while for语句 以及一个小小网络爬虫实例

if分支语句

>>> count=89

>>> if count==89:

print count

89                          #单分支

>>>

#coding:utf-8

count=int(raw_input(‘请输入一个数字‘))

print count

if count>80:

print ‘比80大‘

else:

if count<80:

print ‘比80小’   #多分支

=======自定义函数  while if else===========

#coding:utf-8

count=int(raw_input(‘请输入一个数字‘))

print count

if count>80:

print ‘比80大‘

else:

print ‘比80小‘

print ‘End‘

sex=raw_input(‘请输入您的性别‘)

def inputsex(sex):

while(sex!=‘male‘ and sex!=‘female‘):

print sex

sex=raw_input(‘请输入性别为male 或者 female‘)

if sex==‘male‘:

print ‘Gentleman!‘

else:

if sex==‘female‘:

print ‘Lady‘

inputsex(sex)

=====if else的关系表达式bool判断 非0即真!=====

#coding:utf-8

if True:

print ‘1True‘

else:

print ‘False‘

if 0:

print ‘2True‘

else:

print ‘2False‘

if 1:

print ‘3True‘

else:

print ‘3False‘

if 298:

print ‘4True‘

else:

print ‘4False‘

if -2:

print ‘5True‘

else:

print ‘5False‘

1True

2False

3True

4True

5True

If

if (A and B):

if (A or B):

if not A:

=======================while循环体========================

========网络刷浏览量的爬虫=======

#coding:utf-8

import time

import webbrowser

import os

import random

count=random.ranint(2,8)

i=1

j=0

while j<count:

while i<=3:

webbrowser.open_new_tab(‘www.baidu.com‘)

i=i+1

time.sleep(3)

else:

os.system(‘taskkill /F /IM iexplore.exe‘)

j=j+1

#windows下用taskkill  用的时候上网搜一下

#linux系统下用kill -pid  或者 killall chrome

#ranint就是随机整数

=======for循环语句============

for val in sth.  其中val不用预先声明

For遍历字符串

#coding:utf-8

s1=‘www.baidu.com‘

i=0

for n in s1:

print format(i,‘2d‘),n

i=i+1

else:

print ‘out for‘

#format(i,’2d’)使i占两个输出位

For遍历list列表数组

#coding:utf-8

list1=[0,11,45,‘dkfjah‘,12.5]              列表类型

i=0

for val in list1:

print format(i,‘2d‘),val

i=i+1

也可以直接写成这样

#coding:utf-8

i=1

for val in [11,23,0,‘dfadf‘,‘国语‘,12.45]:

print format(i,‘2d‘),val

i=i+1

将字符串转换成list   list(str)

#coding:utf-8

s1=‘www.baidu.com‘

i=1

list1=list(s1)

print list1

for val in list1:

print format(i,‘2d‘),val

i=i+1

元组 for遍历元组tuple

#coding:utf-8

#用圆括号括起来的是元组,元组中的数据只可读,不可修改。

tup=(1,2,3,4,5)  元组类型

for t in tup:

print t

else:

print ‘out tup‘

for遍历文件  for val in file.readlines()

#coding:utf-8

#如果所读的文件与此py程序文件所在地址一样,则直接写文件名

for s in open(‘11.txt‘,‘r‘).readline():

print s

li3=open(‘11.txt‘,‘r‘).readlines()

for a in open(‘11.txt‘,‘r‘).readlines():

open(‘tmp.txt‘,‘a+‘).write(a)  #a+是追加写入  r 读 w写 w+如果没有此文件先创建再写入

print a

print len(li3)

#len(li3)输出列表有多长  这里即文章有多少行

#readline()返回字符串  默认返回第一行

#readlines()返回list 默认为文件中所有行的list

#用help(file.readline)查看帮助

时间: 2024-10-12 16:39:18

Python ===if while for语句 以及一个小小网络爬虫实例的相关文章

$python爬虫系列(1)——一个简单的爬虫实例

本文主要实现一个简单的爬虫,目的是从一个百度贴吧页面下载图片. 1. 概述 本文主要实现一个简单的爬虫,目的是从一个百度贴吧页面下载图片.下载图片的步骤如下: 获取网页html文本内容: 分析html中图片的html标签特征,用正则解析出所有的图片url链接列表: 根据图片的url链接列表将图片下载到本地文件夹中. 2. urllib+re实现 #!/usr/bin/python # coding:utf-8 # 实现一个简单的爬虫,爬取百度贴吧图片 import urllib import r

Python Socket,How to Create Socket Server? - 网络编程实例

文章出自:Python socket – network programming tutorial by Silver Moon 原创译文,如有版权问题请联系删除. Network programing in Python: Part2: Programing sockets servers. 在所有的通信实例中,都分为Client 和Server. 其中:Client是请求的发起点,Server是使用Socket接收传入的值并且提供返回数据. Server的职能如下: 1>.创建/打开一个so

一个简单网络爬虫示例(转载)

在学生时期,可能听到网络爬虫这个词会觉得很高大上,但是它的简单实现可能学生都不难懂. 网络爬虫应用,就是把整个互联网真的就当做一张网,像蜘蛛网那样,应用就像一个虫子,在网上面按照一定的规则爬动. 现在互联网应用最广的就是http(s)协议了,本文例子就是基于使用http(s)协议的,只作为示例,不涉及复杂的算法(实际上是最重要的). 设计思路: 程序入口从一个或多个url开始,通过http(s)获取url的内容,对获取到内容处理,获取内容中需要爬取的信息,获取到内容中的url链接,再重复以上步骤

《Python编程》课程报告 python技术在数据分析中的应用之网络爬虫

摘要 引言 课题研究背景和研究现状 课题背景和目的      研究现状      意义      主要工作      课题安排      开发工具及其开发环境   需求分析与设计        功能性分析 爬虫页面抓取 爬虫页面处理 爬虫功能实现 爬虫总结  

什么是Python网络爬虫?带你爬向顶峰

首先我们来介绍一下什么是Python网络爬虫,先大概了解一下关于Python网络爬虫的相关知识点. Python作为一门入门简单,功能强大的,库类完善的语言,身受广大猿友们的喜欢.本身对Python也是非常有好感的,所以时不时的逛逛有关Python的网站啥的.通过在各大Python学习群和论坛的学习,我发现学习Python的人大部分都对网络爬虫很感兴趣.下面给各位介绍下Python的学习流程,并且会给出对应的学习教程. 第一步--学习Python 不管你有没有编程语言基础,也不管你其他语言是多厉

python开发的 dht网络爬虫

使用 libtorrent 的python绑定库实现一个dht网络爬虫,抓取dht网络中的磁力链接. dht 网络简介 p2p网络 在P2P网络中,通过种子文件下载资源时,要知道资源在P2P网络中哪些计算机中,这些传输资源的计算机称作peer.在传统的P2P网络中,使用tracker服务器跟踪资源的peer.要下载资源,首先需要取得这些peer. dht网络 tracker服务器面临一些版权和法律问题.于是出现了DHT,它把tracker上的资源peer信息分散到了整个网络中.dht网络是由分布

用Python写网络爬虫-云图

<用Python写网络爬虫>作为使用Python来爬取网络数据的杰出指南,讲解了从静态页面爬取数据的方法以及使用缓存来管理服务器负载的方法.此外,本书还介绍了如何使用AJAX URL和Firebug扩展来爬取数据,以及有关爬取技术的更多真相,比如使用浏览器渲染.管理cookie.通过提交表单从受验证码保护的复杂网站中抽取数据等.本书使用Scrapy创建了一个高级网络爬虫,并对一些真实的网站进行了爬取. <用Python写网络爬虫>介绍了如下内容: 通过跟踪链接来爬取网站:使用lxm

用Python写网络爬虫(高清版)PDF

用Python写网络爬虫(高清版)PDF 百度网盘 链接:https://pan.baidu.com/s/1kdRFAEuze-A9ToWVXHoCXw 提取码:8ib1 复制这段内容后打开百度网盘手机App,操作更方便哦 内容简介  · · · · · · 作为一种便捷地收集网上信息并从中抽取出可用信息的方式,网络爬虫技术变得越来越有用.使用Python这样的简单编程语言,你可以使用少量编程技能就可以爬取复杂的网站. <用Python写网络爬虫>作为使用Python来爬取网络数据的杰出指南,

学习《从零开始学Python网络爬虫》PDF+源代码+《精通Scrapy网络爬虫》PDF

学习网络爬虫,基于python3处理数据,推荐学习<从零开始学Python网络爬虫>和<精通Scrapy网络爬虫>. <从零开始学Python网络爬虫>是基于Python 3的图书,代码挺多,如果是想快速实现功能,这本书是一个蛮好的选择. <精通Scrapy网络爬虫>基于Python3,深入系统地介绍了Python流行框架Scrapy的相关技术及使用技巧. 学习参考: <从零开始学Python网络爬虫>PDF,279页,带目录,文字可复制: 配套