第三方requests模块

requests模块

requests:

     将python编译器当做浏览器使用,可以访问网站,并且接受返回的数据(字符串)

 1 import requests
 2 import json
 3
 4 # 发送http请求
 5 response = requests.get("http://www.weather.com.cn/adat/sk/101010500.html")
 6 response.encoding = ‘utf-8‘
 7 result = response.text
 8 print(type(result), result)
 9
10 # <class ‘str‘> {"weatherinfo":{"city":"怀柔","cityid":"101010500","temp":"9","WD":"南风",
11 # "WS":"1级","SD":"29%","WSE":"1","time":"10:25","isRadar":"1","Radar":"JC_RADAR_AZ9010_JB",
12 # "njd":"暂无实况","qy":"1007"}}
13
14
15 dic = json.loads(result)
16 print(type(dic), dic)
17
18 # <class ‘dict‘> {‘weatherinfo‘: {‘city‘: ‘怀柔‘, ‘cityid‘: ‘101010500‘, ‘temp‘: ‘9‘, ‘WD‘: ‘南风‘,
19 # ‘WS‘: ‘1级‘, ‘SD‘: ‘29%‘, ‘WSE‘: ‘1‘, ‘time‘: ‘10:25‘, ‘isRadar‘: ‘1‘, ‘Radar‘: ‘JC_RADAR_AZ9010_JB‘,
20 # ‘njd‘: ‘暂无实况‘, ‘qy‘: ‘1007‘}}

1.检查QQ在线情况

 1 import requests
 2
 3 # 使用第三方模块requests发送HTTP请求,或者XML格式内容
 4 r = requests.get(‘http://www.webxml.com.cn//webservices/qqOnlineWebService.asmx/qqCheckOnline?qqCode=123456789‘)
 5 result = r.text  #xml的字符串类型
 6
 7
 8 from xml.etree import ElementTree as ET
 9
10 # 解析XML格式内容
11 node = ET.XML(result)  #XML接收一个字符串,格式化为特殊的对象
12 print(node)
13
14 # 获取内容
15 if node.text == "Y":   #特殊的对象可以访问自己各个节点的信息
16     print("在线")
17 else:
18     print("离线")

2.火车站点详情

 1 import requests
 2
 3 from xml.etree import ElementTree as ET
 4
 5 # 使用第三方模块requests发送HTTP请求,或者XML格式内容
 6 r = requests.get(
 7     ‘http://www.webxml.com.cn/WebServices/TrainTimeWebService.asmx/getDetailInfoByTrainCode?TrainCode=G666&UserID=‘)
 8 result = r.text
 9
10 # 解析XML格式内容,把字符串解析成XML
11 root = ET.XML(result)
12
13 print(root.tag)
14 for node in root:
15     print(node)
16     for node_node in node:
17         print(node_node)
18         for node_node_node in node_node:
19             print(node_node_node)
时间: 2024-11-23 12:55:00

第三方requests模块的相关文章

基于python第三方requests 模块的HTTP请求类

使用requests模块构造的下载器,首先安装第三方库requests pip install requests 1 class StrongDownload(object): 2 3 def __init__(self): 4 #拿到代理iplist 5 self.iplist = ['自己想办法搞'] # 6 self.UserAgent = ['自己想办法搞'] 7 8 def get(self,url,timeout,proxy=False,num_retries=3): 9 '''ur

python之requests模块

Python标准库中提供了:urllib等模块以供Http请求,但是,它的 API 太渣了.它是为另一个时代.另一个互联网所创建的.它需要巨量的工作,甚至包括各种方法覆盖,来完成最简单的任务. 发送GET请求 import urllib.request f = urllib.request.urlopen('http://www.webxml.com.cn//webservices/qqOnlineWebService.asmx/qqCheckOnline?qqCode=424662508')

Learn_Day12 模块2:模块1内容补充、requests模块、xml模块

模块1内容补充: vars()    python自动设置的全局变量 在py文件开头用三引号注释,表示是对py文件本身的注释 __doc__    py文件本身的文件注释 __file__    文件路径 __package__    导入py文件(自定义模块)的位置(文件夹,目录),用"."分割 __cached__    缓存,python2版本无此属性 __name__    默认 __main__:主文件执行主函数前用作判断 json.loads(形似对象)    用于将形似列

python的requests模块

使用python进行接口测试得时候可以使用requests模块,是基于 urllib,采用 Apache2 Licensed 开源协议的 HTTP 库 安装requests是模块 pip install requests requests模块的使用 requests支持http的请求类型,如get,post,delete,put,head等 如: r=requests.get("www.baidu.com") r=requests.post("www.baidu.com&qu

python3 爬虫之requests模块使用总结

Requests 是第三方模块,如果要使用的话需要导入.Requests也可以说是urllib模块的升级版,使用上更方便. 这是使用urllib的例子. import urllib.request import json url = 'http://www.weather.com.cn/data/sk/101190408.html' res = urllib.request.urlopen(url)#发送请求 result = res.read().decode()#获取结果,结果是byte类型

requests模块之基础语法

基础语法 发送请求 使用 Requests 发送网络请求非常简单. 一开始要导入 Requests 模块:  >>> import requests  然后,尝试获取某个网页.本例子中,我们来获取 Github 的公共时间线:  >>> r = requests.get('https://api.github.com/events')  现在,我们有一个名为 r 的 Response 对象.我们可以从这个对象中获取所有我们想要的信息. Requests 简便的 API

25-3 requests模块的cookie和代理操作

一.基于requests模块的cookie操作 引言:有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三"人人网"个人主页数据)时,如果使用之前requests模块常规操作时,往往达不到我们想要的目的,例如: 1 #!/usr/bin/env python 2 # -*- coding:utf-8 -*- 3 import requests 4 if __name__ == "__main__": 5 6 #张三人人网个人信息页面的url 7 url

Python网络爬虫-requests模块(II)

有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests模块常规操作时,往往达不到我们想要的目的,例如: #!/usr/bin/env python # -*- coding:utf-8 -*- import requests if __name__ == "__main__": #张三人人网个人信息页面的url url = 'http://www.renren.com/289676607/profile' #伪装UA

python (requests模块使用)

requests模块是python的一个第三方模块,它是基于python自带的urllib模块封装的,用来发送http请求和获取返回的结果,操作很简单.需要自己安装  pip install requests import requests req = requests.get('http://www.baidu.cn',data={'username':'xxx'},cookies={'k':'v'}, headers={'User-Agent':'Chrome'},verify=False,