python第八课

day08---mongoDB和python的结合使用
课堂笔记:
1、BeautifulSoup 解析库
2、MongoDB 存储库
3、requests-html 请求库

BeautifulSoup
1、什么bs4,为什么要使用bs4?
是一个基于re开发的解析库,可以提供一些强大的解析功能。
提高提取数据的效率与爬虫开发效率。

2、安装与使用
pip3 install beautifulsoup4 # 安装bs4
pip3 install lxml # 下载lxml解析器

MongoDB 非关系型数据库
一 安装与使用
1、下载安装
https://www.mongodb.com/download-center/community

2、在C盘创建一个data/db文件夹
- 数据的存放路径

3、mongod启动服务
进入终端,输入mongod启动mongoDB服务。

4、mongo进入mongoDB客户端
打开一个新的终端,输入mongo进入客户端

二 数据库操作

数据库操作:
切换库:
SQL:
use admin; 有则切换,无则报错。

MongoDB:
use tank; 有则切换,无则创建,并切换tank库中。

查数据库:
SQL:
show databases;

MongoDB:
show dbs;
显示的数据库若无数据,则不显示。

删除库:
SQL:
drop database

MongoDB:
db.dropDatabase()

集合操作: MySQL中叫做表。
创建集合:
SQL:
create table f1, f2...

MongoDB:
# 在当前库中通过.来创建集合
db.student

插入数据:
# 插入多条数据
db.student.insert([{"name1": "tank1"}, {"name2": "tank2"}])

# 插入一条
db.student.insert({"name": "tank"})

查数据:
# 查找student集合中所有数据
db.student.find({})

# 查一条 查找name为tank的记录
db.student.find({"name":"tank"})

三 python链接MongoDB
1、下载第三方模块pymongo
pip3 install pymongo

2、链接mongoDB客户端
client = MongoClient(‘localhost‘, 27017)

以下为代码内容:

‘‘‘‘‘‘
‘‘‘
pip3 install beautifulsoup4 # 安装bs4
pip3 install lxml # 下载lxml解析器
‘‘‘
html_doc = """
<html><head><title>The Dormouse‘s story</title></head>
<body>
<p class="sister"><b>$37</b></p>
<p class="story" id="p">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" >Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>

<p class="story">...</p>
"""

# 从bs4中导入BeautifulSoup
from bs4 import BeautifulSoup

# 调用BeautifulSoup实例化得到一个soup对象
# 参数一: 解析文本
# 参数二:
# 参数二: 解析器(html.parser、lxml...)
soup = BeautifulSoup(html_doc, ‘lxml‘)

print(soup)
print(‘*‘ * 100)
print(type(soup))
print(‘*‘ * 100)
# 文档美化
html = soup.prettify()
print(html)

html_doc = """<html><head><title>The Dormouse‘s story</title></head><body><p class="sister"><b>$37</b></p><p class="story" id="p">Once upon a time there were three little sisters; and their names were<b>tank</b><a href="http://example.com/elsie" class="sister" >Elsie</a>,<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;and they lived at the bottom of a well.<hr></hr></p><p class="story">...</p>"""

from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc, ‘lxml‘)

‘‘‘
遍历文档树:
1、直接使用
2、获取标签的名称
3、获取标签的属性
4、获取标签的内容
5、嵌套选择
6、子节点、子孙节点
7、父节点、祖先节点
8、兄弟节点
‘‘‘

# 1、直接使用
print(soup.p) # 查找第一个p标签
print(soup.a) # 查找第一个a标签

# 2、获取标签的名称
print(soup.head.name) # 获取head标签的名称

# 3、获取标签的属性
print(soup.a.attrs) # 获取a标签中的所有属性
print(soup.a.attrs[‘href‘]) # 获取a标签中的href属性

# 4、获取标签的内容
print(soup.p.text) # $37

# 5、嵌套选择
print(soup.html.head)

# 6、子节点、子孙节点
print(soup.body.children) # body所有子节点,返回的是迭代器对象
print(list(soup.body.children)) # 强转成列表类型

print(soup.body.descendants) # 子孙节点
print(list(soup.body.descendants)) # 子孙节点

# 7、父节点、祖先节点
print(soup.p.parent) # 获取p标签的父亲节点
# 返回的是生成器对象
print(soup.p.parents) # 获取p标签所有的祖先节点
print(list(soup.p.parents))

# 8、兄弟节点
# 找下一个兄弟
print(soup.p.next_sibling)
# 找下面所有的兄弟,返回的是生成器
print(soup.p.next_siblings)
print(list(soup.p.next_siblings))

# 找上一个兄弟
print(soup.a.previous_sibling) # 找到第一个a标签的上一个兄弟节点
# 找到a标签上面的所有兄弟节点
print(soup.a.previous_siblings) # 返回的是生成器
print(list(soup.a.previous_siblings))

‘‘‘‘‘‘
html_doc = """<html><head><title>The Dormouse‘s story</title></head><body><p class="sister"><b>$37</b></p><p class="story" id="p">Once upon a time there were three little sisters; and their names were<b>tank</b><a href="http://example.com/elsie" class="sister" >Elsie</a>,<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;and they lived at the bottom of a well.<hr></hr></p><p class="story">...</p>"""
‘‘‘
搜索文档树:
find() 找一个
find_all() 找多个

标签查找与属性查找:
标签:
name 属性匹配
attrs 属性查找匹配
text 文本匹配

- 字符串过滤器
字符串全局匹配

- 正则过滤器
re模块匹配

- 列表过滤器
列表内的数据匹配

- bool过滤器
True匹配

- 方法过滤器
用于一些要的属性以及不需要的属性查找。

属性:
- class_
- id
‘‘‘

from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc, ‘lxml‘)

# # 字符串过滤器
# # name
# p_tag = soup.find(name=‘p‘)
# print(p_tag) # 根据文本p查找某个标签
# # 找到所有标签名为p的节点
# tag_s1 = soup.find_all(name=‘p‘)
# print(tag_s1)
#
#
# # attrs
# # 查找第一个class为sister的节点
# p = soup.find(attrs={"class": "sister"})
# print(p)
# # 查找所有class为sister的节点
# tag_s2 = soup.find_all(attrs={"class": "sister"})
# print(tag_s2)
#
#
# # text
# text = soup.find(text="$37")
# print(text)
#
#
# # 配合使用:
# # 找到一个id为link2、文本为Lacie的a标签
# a_tag = soup.find(name="a", attrs={"id": "link2"}, text="Lacie")
# print(a_tag)

# # 正则过滤器
# import re
# # name
# p_tag = soup.find(name=re.compile(‘p‘))
# print(p_tag)

# 列表过滤器
# import re
# # name
# tags = soup.find_all(name=[‘p‘, ‘a‘, re.compile(‘html‘)])
# print(tags)

# - bool过滤器
# True匹配
# 找到有id的p标签
# p = soup.find(name=‘p‘, attrs={"id": True})
# print(p)

# 方法过滤器
# 匹配标签名为a、属性有id没有class的标签
# def have_id_class(tag):
# if tag.name == ‘a‘ and tag.has_attr(‘id‘) and tag.has_attr(‘class‘):
# return tag
#
# tag = soup.find(name=have_id_class)
# print(tag)

‘‘‘
主页:
图标地址、下载次数、大小、详情页地址

详情页:
游戏名、图标名、好评率、评论数、小编点评、简介、网友评论、1-5张截图链接地址、下载地址
https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page=1&ctoken=FRsWKgWBqMBZLdxLaK4iem9B

https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page=2&ctoken=FRsWKgWBqMBZLdxLaK4iem9B

https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page=3&ctoken=FRsWKgWBqMBZLdxLaK4iem9B

32
‘‘‘
import requests
from bs4 import BeautifulSoup
# 1、发送请求
def get_page(url):
response = requests.get(url)
return response

# 2、开始解析
# 解析主页
def parse_index(data):
soup = BeautifulSoup(data, ‘lxml‘)

# 获取所有app的li标签
app_list = soup.find_all(name=‘li‘, attrs={"class": "card"})
for app in app_list:
# print(‘tank *‘ * 1000)
# print(app)
# 图标地址
img = app.find(name=‘img‘).attrs[‘data-original‘]
print(img)

# 下载次数
down_num = app.find(name=‘span‘, attrs={"class": "install-count"}).text
print(down_num)

import re
# 大小
size = soup.find(name=‘span‘, text=re.compile("\d+MB")).text
print(size)

# 详情页地址
detail_url = soup.find(name=‘a‘, attrs={"class": "detail-check-btn"}).attrs[‘href‘]
print(detail_url)

def main():
for line in range(1, 33):
url = f"https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page={line}&ctoken=FRsWKgWBqMBZLdxLaK4iem9B"

# 1、往app接口发送请求
response = get_page(url)
# print(response.text)
print(‘*‘ * 1000)
# 反序列化为字典
data = response.json()
# 获取接口中app标签数据
app_li = data[‘data‘][‘content‘]
# print(app_li)
# 2、解析app标签数据
parse_index(app_li)

if __name__ == ‘__main__‘:
main()

‘‘‘
主页:
图标地址、下载次数、大小、详情页地址

详情页:
游戏名、好评率、评论数、小编点评、下载地址、简介、网友评论、1-5张截图链接地址、
https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page=1&ctoken=FRsWKgWBqMBZLdxLaK4iem9B

https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page=2&ctoken=FRsWKgWBqMBZLdxLaK4iem9B

https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page=3&ctoken=FRsWKgWBqMBZLdxLaK4iem9B

32
‘‘‘
import requests
from bs4 import BeautifulSoup
# 1、发送请求
def get_page(url):
response = requests.get(url)
return response

# 2、开始解析
# 解析详情页
def parse_detail(text):
soup = BeautifulSoup(text, ‘lxml‘)
# print(soup)

# app名称
name = soup.find(name="span", attrs={"class": "title"}).text
# print(name)

# 好评率
love = soup.find(name=‘span‘, attrs={"class": "love"}).text
# print(love)

# 评论数
commit_num = soup.find(name=‘a‘, attrs={"class": "comment-open"}).text
# print(commit_num)

# 小编点评
commit_content = soup.find(name=‘div‘, attrs={"class": "con"}).text
# print(commit_content)

# app下载链接
download_url = soup.find(name=‘a‘, attrs={"class": "normal-dl-btn"}).attrs[‘href‘]
# print(download_url)

print(
f‘‘‘
============= tank ==============
app名称:{name}
好评率: {love}
评论数: {commit_num}
小编点评: {commit_content}
app下载链接: {download_url}
============= end ==============
‘‘‘
)

# 解析主页
def parse_index(data):
soup = BeautifulSoup(data, ‘lxml‘)

# 获取所有app的li标签
app_list = soup.find_all(name=‘li‘, attrs={"class": "card"})
for app in app_list:
# print(app)
# print(‘tank‘ * 1000)
# print(‘tank *‘ * 1000)
# print(app)
# 图标地址
# 获取第一个img标签中的data-original属性
img = app.find(name=‘img‘).attrs[‘data-original‘]
print(img)

# 下载次数
# 获取class为install-count的span标签中的文本
down_num = app.find(name=‘span‘, attrs={"class": "install-count"}).text
print(down_num)

import re
# 大小
# 根据文本正则获取到文本中包含 数字 + MB(\d+代表数字)的span标签中的文本
size = soup.find(name=‘span‘, text=re.compile("\d+MB")).text
print(size)

# 详情页地址
# 获取class为detail-check-btn的a标签中的href属性
# detail_url = soup.find(name=‘a‘, attrs={"class": "name"}).attrs[‘href‘]
# print(detail_url)

# 详情页地址
detail_url = app.find(name=‘a‘).attrs[‘href‘]
print(detail_url)

# 3、往app详情页发送请求
response = get_page(detail_url)

# 4、解析app详情页
parse_detail(response.text)

def main():
for line in range(1, 33):
url = f"https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page={line}&ctoken=FRsWKgWBqMBZLdxLaK4iem9B"

# 1、往app接口发送请求
response = get_page(url)
# print(response.text)
print(‘*‘ * 1000)
# 反序列化为字典
data = response.json()

# 获取接口中app标签数据
app_li = data[‘data‘][‘content‘]
# print(app_li)
# 2、解析app标签数据
parse_index(app_li)

if __name__ == ‘__main__‘:
main()

from pymongo import MongoClient

# 1、链接mongoDB客户端
# 参数1: mongoDB的ip地址
# 参数2: mongoDB的端口号 默认:27017
client = MongoClient(‘localhost‘, 27017)
# print(client)

# 2、进入tank_db库,没有则创建
# print(client[‘tank_db‘])

# 3、创建集合
# print(client[‘tank_db‘][‘people‘])

# 4、给tank_db库插入数据

# 1.插入一条
# data1 = {
# ‘name‘: ‘tank‘,
# ‘age‘: 18,
# ‘sex‘: ‘male‘
# }
# client[‘tank_db‘][‘people‘].insert(data1)

# 2.插入多条
# data1 = {
# ‘name‘: ‘tank‘,
# ‘age‘: 18,
# ‘sex‘: ‘male‘
# }
# data2 = {
# ‘name‘: ‘戚志云‘,
# ‘age‘: 84,
# ‘sex‘: ‘female‘
# }
# data3 = {
# ‘name‘: ‘沈金金‘,
# ‘age‘: 73,
# ‘sex‘: ‘male‘
# }
# client[‘tank_db‘][‘people‘].insert([data1, data2, data3])
#
# # 5、查数据
# # 查看所有数据
# data_s = client[‘tank_db‘][‘people‘].find()
# print(data_s) # <pymongo.cursor.Cursor object at 0x000002EEA6720128>
# # 需要循环打印所有数据
# for data in data_s:
# print(data)
#
# # 查看一条数据
# data = client[‘tank_db‘][‘people‘].find_one()
# print(data)

# 官方推荐使用
# 插入一条insert_one
# client[‘tank_db‘][‘people‘].insert_one()
# 插入多条insert_many
# client[‘tank_db‘][‘people‘].insert_many()

小结:今天又是夸tank的一天,又是如此的帅气加美丽

原文地址:https://www.cnblogs.com/lmff/p/11067337.html

时间: 2024-10-09 08:34:16

python第八课的相关文章

接口测试学习-python第八课(数据驱动测试)

自动化分为三类,数据驱动即根据数据去进行测试:代码驱动即测试都是通过代码完成的:关键字驱动即依靠一些软件,利用关键字完成测试.本次主要记录数据驱动,自动化框架主要有以下几个部分: ①获取用例 ②调用接口 ③检验结果 ④发送测试报告 ⑤异常处理 ⑥日志 以前进行接口封装的时候,有过将代码分别放在不同的文件夹下的经历.这次也以这样的模式来完成,主要做到以下几点:首先读取用例,其次根据用例完成接口测试,然后记录结果到用例文件中,最后发送邮件.同时各个部分关键结果处需要记录日志. 1.setting文件

python第八课——random模块的使用

2.2.如何获取随机整数值? 引入random模块的使用 randint(a,b)函数:作用:返回给程序一个[a,b]范围内的随机整数注意:含头含尾闭区间 思路步骤: 第一步:导入random模块到相应的.py文件中 import random 第二步:通过random模块名调用randint(a,b)执行得到随机整数 random.randint(1,5) #案例1:#演示random模块中randint函数的使用 import random print("随机的整数为:%d" %r

Python第十八课(面向对象基础)

Python第17课(面向对象基础)    >>>思维导图>>>中二青年 什么是继承? 继承是一种关系,描述两个对象之间,什么是什么的关系 例如麦兜,佩奇,猪刚鬣 都是猪啊, 在程序中,继承描述的是类和类之间的关系 例如a继承了b, a就能直接使用b已经存在的方法和属性 a称之为子类,b称之为父类,也称之为基类 为什么要使用继承 继承的一方可以直接使用被继承一方已经有的东西 其目的是为了重用已经有的代码,提高重用性 如何使用继承 语法 class 类名称(父类的名称):

第八课 网络通信

unix_c_08.txt================第八课 网络通信================一.基本概念------------1. ISO/OSI七层网络协议模型~~~~~~~~~~~~~~~~~~~~~~~~~~+------------+--------------+ ---| 应用层 | Application | ^+------------+--------------+ || 表示层 | Presentation | 高层+------------+---------

NeHe OpenGL教程 第三十八课:资源文件

转自[翻译]NeHe OpenGL 教程 前言 声明,此 NeHe OpenGL教程系列文章由51博客yarin翻译(2010-08-19),本博客为转载并稍加整理与修改.对NeHe的OpenGL管线教程的编写,以及yarn的翻译整理表示感谢. NeHe OpenGL第三十八课:资源文件 从资源文件中载入图像: 如何把图像数据保存到*.exe程序中,使用Windows的资源文件吧,它既简单又实用. 欢迎来到NeHe教程第38课.离上节课的写作已经有些时日了,加上写了一整天的code,也许笔头已经

【C++探索之旅】第一部分第八课:传值引用,文件源头

内容简介 1.第一部分第八课:传值引用,文件源头 2.第一部分第九课预告:数组威武,动静合一 传值引用,文件源头 这一课的标题有点怪.其实是由这一课的几个重点内容结合起来取的名,慢慢学习就知道啦. 上一课<[C++探索之旅]第一部分第七课:函数效应,分而治之>中,我们初步认识了函数. 不过不要高兴得太早,你以为函数就这样离你远去了嘛?怎么可能,函数将伴随一生好吗,只要你继续编程的话.哈哈,所以你是跑不掉了~ [小编,都跟你签了协议了,没吃药不要随便出来溜达] 这一课我们就继续深入学习与函数相关

Python:编程“八荣八耻”

以动手实践为荣,以只看不练为耻. 以打印日志为荣,以单步跟踪为耻. 以空白分隔为荣,以制表分隔为耻. 以单元测试为荣,以手工测试为耻. 以代码重用为荣,以复制粘贴为耻. 以多态应用为荣,以分支判断为耻. 以Pythonic为荣,以冗余拖沓为耻. 以总结思考为荣,以不求甚解为耻. 刚刚看到,不可尽信,也不可全部不信.理性看待. 1. "以动手实践为荣, 以只看不练为耻" 俺写一个程序时间通常是这么分配的. 70% 的时间用来寻找和阅读现有代码, 如果找到了, 就不用自己写了.如果不够用或

NeHe OpenGL教程 第二十八课:贝塞尔曲面

转自[翻译]NeHe OpenGL 教程 前言 声明,此 NeHe OpenGL教程系列文章由51博客yarin翻译(2010-08-19),本博客为转载并稍加整理与修改.对NeHe的OpenGL管线教程的编写,以及yarn的翻译整理表示感谢. NeHe OpenGL第二十八课:贝塞尔曲面 贝塞尔曲面: 这是一课关于数学运算的,没有别的内容了.来,有信心就看看它吧. 贝塞尔曲面 作者: David Nikdel ( [email protected] ) 这篇教程旨在介绍贝塞尔曲面,希望有比我更

NeHe OpenGL教程 第十八课:二次几何体

转自[翻译]NeHe OpenGL 教程 前言 声明,此 NeHe OpenGL教程系列文章由51博客yarin翻译(2010-08-19),本博客为转载并稍加整理与修改.对NeHe的OpenGL管线教程的编写,以及yarn的翻译整理表示感谢. NeHe OpenGL第十八课:二次几何体 二次几何体: 利用二次几何体,你可以很容易的创建球,圆盘,圆柱和圆锥. 二次曲面是一种画复合对象的方法,这种方法通常并不需要很多的三角形.我们将要使用第七课的代码.我们将要增加7个变量以及修改纹理以增加一些变化