airtest爬取app内容

1.以知乎为例爬取数据:

# -*- encoding=utf8 -*-
from airtest.core.api import *
from airtest.core.android.android import Android
auto_setup(__file__)
from poco.drivers.android.uiautomation import AndroidUiautomationPoco
poco=AndroidUiautomationPoco(force_restart=False)
connect_device(‘Android:///‘)
poco(name=‘com.zhihu.android:id/input‘).click()
sleep(3)
poco(name=‘com.zhihu.android:id/input‘).set_text(‘追风筝的人‘)
sleep(4)

title_obj_list = poco(name=‘com.zhihu.android:id/magi_title‘)#行的元素(内容行)
title_list = [title.get_text() for title in title_obj_list]#迭代title_obj_list元素的个数(也教遍历)
#print(title_list)
discuss_obj_list = poco(name=‘com.zhihu.android:id/magi_count‘)#行对应的讨论数
discuss_list = [discuss.get_text() for discuss in discuss_obj_list]#遍历discuss_obj_list
#遍历格式化
for title, discuss in zip(title_list, discuss_list):
    print(title, discuss)
exit()

原文地址:https://www.cnblogs.com/chen-xia/p/10863705.html

时间: 2024-10-19 03:41:49

airtest爬取app内容的相关文章

[实战演练]python3使用requests模块爬取页面内容

本文摘要: 1.安装pip 2.安装requests模块 3.安装beautifulsoup4 4.requests模块浅析 + 发送请求 + 传递URL参数 + 响应内容 + 获取网页编码 + 获取响应状态码 5.案例演示 后记 1.安装pip 我的个人桌面系统用的linuxmint,系统默认没有安装pip,考虑到后面安装requests模块使用pip,所以我这里第一步先安装pip. $ sudo apt install python-pip 安装成功,查看PIP版本: $ pip -V 2.

爬虫再探实战(五)———爬取APP数据——超级课程表【一】

关于爬虫,开始以为只能爬取网页数据,后来知道APP也能抓取.于是,在学校利用空闲时间,耗时两周实现了数据的抓取和简单的数据分析. 目标,抓取超级课程表XX大学(其实是我们大学啦...)学生20000条发帖信息.思路如下: STEP1:为我们的爬虫找到入口 APP请求数据,也是通过网络协议,这样,我们就抓包来定位入口,这里我用的是fiddler.关于设置手机和fiddler的关联,请参考这篇文章. 找到登陆入口为:http://120.55.151.61/V2/StudentSkip/loginC

Python模拟登录后爬取网站内容(小说)

最近有个好友让我帮忙爬取个小说,这个小说是前三十章直接可读,后面章节需要充值VIP可见.所以就需要利用VIP账户登录后,构造Cookie,再用Python的获取每章节的url,得到内容后再使用 PyQuery 解析内容. 注意:构造Cookie的过程中,需要你在 Chrome/Firefox 登录,然后自己在控制台查看 cookie,然后手动加入. 第一步:手动构造cookie,绕过登录 [我这里不是破解账户,想破解请出门左拐] 1 #version 2.7 2 3 #!/usr/bin/pyt

谁说Python不能爬取APP上面的数据?看我把快手视频弄到手!

设置代理,重启,下一步,查看本机ip 手机打开网络设置 通过代理服务器: 设置好,刷新快手app 看到请求,去找自己要用的, 非了九牛二虎之力找到了. import requests,json url='http://124.243.249.4/rest/n/feed/hot?appver=5.7.5.508&did=EB3C5966-C50E-432D-801E-D7EB42964654&c=a&ver=5.7&sys=ios9.3.5&mod=iPhone7%2

网页爬虫小记:两种方式的爬取网站内容

此处进行简单的分类,对于普通的网页爬取内容,如果没有登录界面可以直接使用Jsoup的API进行爬取: 如果网站是在打开目标也之前需要进行登录,此时需要先使用用户加密码实现登录获取Cookie然后进行登录: 本文就第二种方式进行分析: 方式一. httpClient中的PostMethod 或者 GetMethod 使用httpClient进行获得Cookie: import org.apache.commons.httpclient.Cookie; import org.apache.commo

【Python爬虫】之爬取页面内容、图片以及用selenium爬取

下面不做过多文字描述: 首先.安装必要的库 # 安装BeautifulSoup pip install beautifulsoup4 # 安装requests pip install requests 其次.上代码!!! ①重定向网站爬虫h4文字 import requests from bs4 import BeautifulSoup from selenium import webdriver from selenium.webdriver.common.by import By from

爬取新浪微博内容(手机新浪微博,pc版本的抓取不到内容,ps:找不到网址!)

1 #!usr/bin/env python 2 #coding:utf-8 3 4 import urllib2 5 import cookielib 6 from bs4 import BeautifulSoup 7 8 #cookie = cookielib.CookieJar() 9 #hander = urllib2.HTTPCookieProcessor(cookie) 10 #opener = urllib2.build_opener(hander) 11 12 user_agen

python爬虫-爬取天气预报内容

使用requests模块获取网页内容,bs4数据清洗 ,pands保存数据一般都为csv格式. import requests from bs4 import BeautifulSoup import pandas as pd def Get_data(url): # 请求得到网页内容 res = requests.get(url) # 二进制方式显示网页内容 html = res.content.decode('gbk') # 格式化网页 soup = BeautifulSoup(html,'

网络爬虫2:使用crawler4j爬取网络内容

需要两个包: crawler4j-4.1-jar-with-dependencies.jar slf4j-simple-1.7.22.jar(如果不加,会有警告:SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".) 相关包下载: http://download.csdn.net/detail/talkwah/9747407 (crawler4j-4.1-jar-with-dependencies.jar相关资