PhantomJS爬虫 -----全国高校查询-------计算机科学与技术前50大学

Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,

Selenium可以根据我们的指令,让浏览器自动加载页面,获取需要的页面,甚至页面截屏,或者判断网站上某些动作是否发生。

Selenium自己不带浏览器,不支持浏览器的功能,它需要与第三方浏览器结合在一起才能使用。但是我们有时候需要让它内嵌在代码中运行,所有我们而已用一个叫PhantomJS的工具代替真实的浏览器。

PhantomJS是一个基于Webkit的"无界面"(headless)浏览器,它会把网站加载到内存并执行页面上的JavaScript,因为不会展示图形界面,所以运行起来比完整的浏览器更高效。

如果我们把Selenium和PhantomJS结合在一起,就可以运行一个非常强大的网络爬虫了,这个爬虫可以处理JavaScript、Cookie、headers,以及任何我们真实用户需要做的事情。

注意:PhantomJS只能从它的网站(http://phantomjs.org/download.html)下载。因为PhantomJS是一个功能完善(虽然无界面)的浏览器而非一个Python库,所以它不需要像Python的其它库一样安装,但我们可以通过Selenium调用PhantomJS来直接使用
PhantomsJS官方才考文档:http://phantomjs.org/documention

Selenium和PhantomJS 拓展详解

导入webdriver---->from selenium import webdriver
调用环境变量指定的phantomjs浏览器创建浏览器对象
    driver=webdriver.PhantomJs()
如果没有在坏境变量指定phantomjs位置则:driver=webdriver.PhantomJs(executable_path=‘./phantomJs‘))
get方法会一直等到页面完全加载完,才会继续执行程序,通常测试会在这里选择time.sleep()
  driver.get(‘http://www.baidu.com/‘)

Selenium详解
安装:pip3 install selenium
  http://phantomjs.org/download.html
selenium用法详解
selenium 是一套完整的web应用程序测试系统,包含了测试的录制(selenium IDE),编写及运行
(Selenium Remote Control)和测试的并行处理(Selenium Grid)。Selenium的核心Selenium Core
基于JsUnit,完全由JavaScript编写,因此可以用于任何支持JavaScript的浏览器上。
selenium主要是用来做自动化测试,支持多种浏览器,爬虫中主要用来解决JavaScript渲染问题。
模拟浏览器进行网页加载,当requests,urllib无法正常获取网页内容的时候
一、声明浏览器对象
注意点一,Python文件名或者包名不要命名为selenium,会导致无法导入
from selenium import webdriver
#webdriver可以认为是浏览器的驱动器,要驱动浏览器必须用到webdriver,支持多种浏览器,这里以Chrome为例
browser = webdriver.Chrome()

二、访问页面并获取网页html
from selenium import webdriver
browser = webdriver.Chrome()
browser.get(‘https://www.taobao.com‘)
print(browser.page_source)#browser.page_source是获取网页的全部html
browser.close()

三、查找元素
单个元素
from selenium import webdriver
browser = webdriver.Chrome()
browser.get(‘https://www.taobao.com‘)
input_first = browser.find_element_by_id(‘q‘)
input_second = browser.find_element_by_css_selector(‘#q‘)
input_third = browser.find_element_by_xpath(‘//*[@id="q"]‘)
print(input_first,input_second,input_third)
browser.close()
常用的查找方法
find_element_by_id
find_element_by_name
find_element_by_xpath
find_element_by_link_text
find_element_by_partial_link_text
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector
也可以使用通用的方法
from selenium import webdriver
from selenium.webdriver.common.by import By ---这里需要记住By模块所以需要导入
browser = webdriver.Chrome()
browser.get(‘https://www.taobao.com‘)
input_first = browser.find_element(BY.ID,‘q‘)#第一个参数传入名称,第二个传入具体的参数
print(input_first)
browser.close()
多个元素,elements多个s
input_first = browser.find_elements_by_id(‘q‘)

四、元素交互操作-搜索框传入关键词进行自动搜索
from selenium import webdriver
import time
browser = webdriver.Chrome()
browser.get(‘https://www.taobao.com‘)
input = browser.find_element_by_id(‘q‘)#找到搜索框
input.send_keys(‘iPhone‘)#传送入关键词
time.sleep(5)
input.clear()#清空搜索框
input.send_keys(‘男士内裤‘)
button = browser.find_element_by_class_name(‘btn-search‘)#找到搜索按钮
button.click()
更多操作: http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.remote.webelement#可以有属性、截图等等

五、交互动作,驱动浏览器进行动作,模拟拖拽动作,将动作附加到动作链中串行执行
from selenium import webdriver
from selenium.webdriver import ActionChains#引入动作链

browser = webdriver.Chrome()
url = ‘http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable‘
browser.get(url)
browser.switch_to.frame(‘iframeResult‘)#切换到iframeResult框架
source = browser.find_element_by_css_selector(‘#draggable‘)#找到被拖拽对象
target = browser.find_element_by_css_selector(‘#droppable‘)#找到目标
actions = ActionChains(browser)#声明actions对象
actions.drag_and_drop(source, target)
actions.perform()#执行动作
更多操作: http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.common.action_chains

六、执行JavaScript
有些动作可能没有提供api,比如进度条下拉,这时,我们可以通过代码执行JavaScript
from selenium import webdriver
browser = webdriver.Chrome()
browser.get(‘https://www.zhihu.com/explore‘)
browser.execute_script(‘window.scrollTo(0, document.body.scrollHeight)‘)
browser.execute_script(‘alert("To Bottom")‘)

七、获取元素信息
获取属性
from selenium import webdriver
from selenium.webdriver import ActionChains

browser = webdriver.Chrome()
url = ‘https://www.zhihu.com/explore‘
browser.get(url)
logo = browser.find_element_by_id(‘zh-top-link-logo‘)#获取网站logo
print(logo)
print(logo.get_attribute(‘class‘))
browser.close()
获取文本值
from selenium import webdriver
browser = webdriver.Chrome()
url = ‘https://www.zhihu.com/explore‘
browser.get(url)
input = browser.find_element_by_class_name(‘zu-top-add-question‘)
print(input.text)#input.text文本值
browser.close()

# 获取Id,位置,标签名,大小
from selenium import webdriver
browser = webdriver.Chrome()
url = ‘https://www.zhihu.com/explore‘
browser.get(url)
input = browser.find_element_by_class_name(‘zu-top-add-question‘)
print(input.id)#获取id
print(input.location)#获取位置
print(input.tag_name)#获取标签名
print(input.size)#获取大小
browser.close()

八、Frame操作
frame相当于独立的网页,如果在父类网frame查找子类的,则必须切换到子类的frame,子类如果查找父类也需要先切换
这里常用的是switch_to.from()和switch_to.parent_frame()
from selenium import webdriver
from selenium.common.exceptions import NoSuchElementException

browser = webdriver.Chrome()
url = ‘http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable‘
browser.get(url)
browser.switch_to.frame(‘iframeResult‘)
source = browser.find_element_by_css_selector(‘#draggable‘)
print(source)
try:
    logo = browser.find_element_by_class_name(‘logo‘)
except NoSuchElementException:
    print(‘NO LOGO‘)
browser.switch_to.parent_frame()
logo = browser.find_element_by_class_name(‘logo‘)
print(logo)
print(logo.text)

九、等待
隐式等待
当使用了隐式等待执行测试的时候,如果 WebDriver没有在 DOM中找到元素,将继续等待,超出设定时间后则抛出找不到元素的异常,
换句话说,当查找元素或元素并没有立即出现的时候,隐式等待将等待一段时间再查找 DOM,默认的时间是0

from selenium import webdriver

browser = webdriver.Chrome()
browser.implicitly_wait(10)#等待十秒加载不出来就会抛出异常,10秒内加载出来正常返回
browser.get(‘https://www.zhihu.com/explore‘)
input = browser.find_element_by_class_name(‘zu-top-add-question‘)
print(input)

显式等待
指定一个等待条件,和一个最长等待时间,程序会判断在等待时间内条件是否满足,如果满足则返回,如果不满足会继续等待,超过时间就会抛出异常
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC

browser = webdriver.Chrome()
browser.get(‘https://www.taobao.com/‘)
wait = WebDriverWait(browser, 10)
input = wait.until(EC.presence_of_element_located((By.ID, ‘q‘)))
button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, ‘.btn-search‘)))
print(input, button)

title_is 标题是某内容
title_contains 标题包含某内容
presence_of_element_located 元素加载出,传入定位元组,如(By.ID, ‘p‘)
visibility_of_element_located 元素可见,传入定位元组
visibility_of 可见,传入元素对象
presence_of_all_elements_located 所有元素加载出
text_to_be_present_in_element 某个元素文本包含某文字
text_to_be_present_in_element_value 某个元素值包含某文字
frame_to_be_available_and_switch_to_it frame加载并切换
invisibility_of_element_located 元素不可见
element_to_be_clickable 元素可点击
staleness_of 判断一个元素是否仍在DOM,可判断页面是否已经刷新
element_to_be_selected 元素可选择,传元素对象
element_located_to_be_selected 元素可选择,传入定位元组
element_selection_state_to_be 传入元素对象以及状态,相等返回True,否则返回False
element_located_selection_state_to_be 传入定位元组以及状态,相等返回True,否则返回False
alert_is_present 是否出现Alert

详细内容:http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.support.expected_conditions

十一、前进后退-实现浏览器的前进后退以浏览不同的网页back()和forward()
import time
from selenium import webdriver

browser = webdriver.Chrome()
browser.get(‘https://www.baidu.com/‘)
browser.get(‘https://www.taobao.com/‘)
browser.get(‘https://www.python.org/‘)
browser.back()
time.sleep(1)
browser.forward()
browser.close()

十二、Cookies操作
get_cookies()
delete_all_cookes()
add_cookie()
from selenium import webdriver

browser = webdriver.Chrome()
browser.get(‘https://www.zhihu.com/explore‘)
print(browser.get_cookies())
browser.add_cookie({‘name‘: ‘name‘, ‘domain‘: ‘www.zhihu.com‘, ‘value‘: ‘germey‘})
print(browser.get_cookies())
browser.delete_all_cookies()
print(browser.get_cookies())

选项卡管理 增加浏览器窗口
通过执行js命令实现新开选项卡window.open()
不同的选项卡是存在列表里browser.window_handles
通过browser.window_handles[0]就可以操作第一个选项卡
import time
from selenium import webdriver

browser = webdriver.Chrome()
browser.get(‘https://www.baidu.com‘)
browser.execute_script(‘window.open()‘)
print(browser.window_handles)
browser.switch_to_window(browser.window_handles[1])
browser.get(‘https://www.taobao.com‘)
time.sleep(1)
browser.switch_to_window(browser.window_handles[0])
browser.get(‘http://www.fishc.com‘)

十三、异常处理
这里的异常比较复杂,官网的参考地址:
http://selenium-python.readthedocs.io/api.html#module-selenium.common.exceptions
这里只进行简单的演示,查找一个不存在的元素
from selenium import webdriver

browser = webdriver.Chrome()
browser.get(‘https://www.baidu.com‘)
browser.find_element_by_id(‘hello‘)

from selenium import webdriver
from selenium.common.exceptions import TimeoutException, NoSuchElementException

browser = webdriver.Chrome()
try:
    browser.get(‘https://www.baidu.com‘)
except TimeoutException:
    print(‘Time Out‘)
try:
    browser.find_element_by_id(‘hello‘)
except NoSuchElementException:
    print(‘No Element‘)
finally:
    browser.close()
# 详细文档:http://selenium-python.readthedocs.io/api.html#module-selenium.common.exceptions    

这里我们运用PhantomJS爬取全国高校查询计算机科学与技术专业前50的学校,并且存入到数据库。

如下图所示

对重点专业:是、否进行处理

教育部直属、985大学、211大学标签使用beautiful soup 进行处理

代码如下

 1 # -*- coding:utf-8 -*-
 2 # author:zxy
 3 # date:2019-2-5
 4
 5 from bs4 import BeautifulSoup
 6 from selenium import webdriver
 7 import re
 8 from c_Study import conn
 9
10
11 def main():
12     driver_path = r‘C:\Program Files\phantomjs-2.1.1-windows\bin\phantomjs.exe‘
13     driver = webdriver.PhantomJS(executable_path=driver_path)
14     for i in range(1, 6, 1):
15         url = ‘https://gkcx.eol.cn/soudaxue/querySchoolSpecialty.html?&argspecialtyname=%E8%AE%A1%E7%AE%97%E6%9C%BA%E7%A7%91%E5%AD%A6%E4%B8%8E%E6%8A%80%E6%9C%AF&argzycengci=%E6%9C%AC%E7%A7%91&page=‘ 16               + str(i)
17         driver.get(url)
18         data = driver.page_source
19         dfcontent = BeautifulSoup(data, ‘lxml‘)
20         trs = dfcontent.find_all(‘tr‘)[1:]
21         for tr in trs:
22             college_name = tr.find_all(‘td‘)[0].string  # 大学名称
23             college_major = tr.find_all(‘td‘)[1].string  # 专业名称
24             major_isKey = tr.find_all(‘td‘)[2].string  # 是否重点专业
25             if major_isKey == "是":
26                 major_isKey = 1
27             elif major_isKey == ‘否‘:
28                 major_isKey = 0
29             is_direct = tr.find_all(‘td‘)[3]  # 是否教育部直属
30             if is_direct.find(attrs={‘style‘: re.compile(‘.*?#CCCCCC;.*?‘)}):
31                 is_direct = 0
32             else:
33                 is_direct = 1
34             is_985 = tr.find_all(‘td‘)[4]  # 是否985大学
35             if is_985.find(attrs={‘style‘: re.compile(‘.*?#CCCCCC;.*?‘)}):
36                 is_985 = 0
37             else:
38                 is_985 = 1
39             is_211 = tr.find_all(‘td‘)[5]  # 是否211大学
40             if is_211.find(attrs={‘style‘: re.compile(‘.*?#CCCCCC;.*?‘)}):
41                 is_211 = 0
42             else:
43                 is_211 = 1
44
45             conn.insert_into_db(‘colleges‘, college_name, college_major, major_isKey, is_direct, is_direct, is_211)
46 if __name__ == ‘__main__‘:
47     main()
 1 # -*- coding:utf-8 -*-
 2 # author:zxy
 3 # Date:2019-2-5
 4 # Update:
 5 import pymysql
 6
 7
 8
 9 def insert_into_db(dbname,*args):
10     db = pymysql.Connect("localhost", ‘root‘, ‘pwd‘, "dbname")
11     sql = "insert into "+dbname+"(name, major, major_isKey, is_direct,is_985,is_211) values (%s, %s, %s, %s, %s, %s);"
12     cur = db.cursor()
13     try:
14         cur.execute(sql, args)
15         db.commit()
16     except:
17         db.rollback()

结果如下所示:

原文地址:https://www.cnblogs.com/z-712/p/10353189.html

时间: 2024-10-03 16:49:06

PhantomJS爬虫 -----全国高校查询-------计算机科学与技术前50大学的相关文章

调研《构建之法》指导下的全国高校的历届软工实践作品、全国互联网+竞赛、物联网竞赛等各类全国性大学生信息化相关的竞赛平台的历届作品及其看法

1,豌豆荚一览 作品内容:主要是一款聚合阅读类作品,他收录了500+应用的内容,可以在一个应用里面,看完自己感兴趣的应用的最近更新的内容,更通俗的讲就是用一个应用代替其他阅读类的应用,你可以在豌豆荚一览中看到其他应用最新更新内容,比如可以看知乎日报,开眼,一个等等之类的..... 作品源于的平台:豌豆荚设计奖里的作品,链接:http://sspai.com/30278 作品的优势:我们手机里面有很多的应用,每天都要在这些应用花费很多时间,其中有一些可能下载下来都不会打开几次,但是删掉又可惜的,于

“第二届全国高校软件定义网络(SDN)应用创新开发大赛” 第八次培训研讨会的通知

各相关高校.单位: 为推动互联网应用创新人才的培养,教育部科技发展中心将于决定于2014年11月至2015年8月举办"第二届全国高校软件定义网络(SDN)应用创新开发大赛"(教技发中心函[2014]126号).本赛项由互联网应用创新开放平台联盟主办,华南理工大学信息网络工程研究中心承办,关于大赛详细信息可浏览网址:www.iiu.edu.cn/chuangxin和www.scut.edu.cn/sdn. 为保障赛事顺利进行,赛项执委会将于2015年5月16日(周六)在江苏省未来网络创新

全国高校学科评估:各专业排名前十的高校

全国高校学科评估:各专业排名前十的高校 考试点考研2016-03-07 17:06:08考研资讯 考研辅导 研院信息阅读(33332)评论(2) 声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场.举报 文章来源于考试点 转载请注明出处 2017考研已经逐渐提上日程,择校择专业也成为许多同学关心的头等大事.现下各种各种的高校排名不在少数,各式榜单很容易使人眼花缭乱.下面是教育部公布的各专业排名前十的高校,也是目前较为权威可信的高校专业评估,大家可以以此做

2016全国高校大数据专业师资培训班在秦皇岛成功举办

2016年7月29日,由中国电子学会嵌入式系统与机器人分会主办的2016全国高校大数据专业师资培训班(暑假)在河北.秦皇岛河北科技师范学院圆满落幕. 本期师资培训班从7月22日开始,为期8天,河北科技师范学院作为协办方为培训班提供了培训场地,而作为承办方的北京奇观技术有限责任公司以及北京博创智联科技有限公司提供了培训使用的实验设备.大数据教学实验系统以及云计算.大数据领域内的优秀讲师和强大的技术支持团队. 本期培训课程内容是针对全国高校计算机方向量身定制的,涵盖了系统安装配置.提供上层编程API

【云图】如何制作全国KTV查询系统?

摘要:本文以[唱吧]531麦霸音乐节为案例,详细解读了如何导入自有数据到高德云图,并进行检索和展示.最后,调起高德mobile地图来进行路线规划和周边查询. 本案例可以应用在微信开发平台,支付宝公众服务上,适合餐饮商家,汽车4S店,银行,停车场等业务. 由于使用高德云图+URI API的方式实现,开发者无需进行繁琐的数据库操作,即可实现自有数据的存储与检索. -------------------------------------------------------------- 一.数据准备

全国水质查询api根据流域查询水质量

全国水质查询api根据流域查询水质量,包括监测站点.PH.PH水质类别.溶解氧.溶解氧水质类别.氨氮.氨氮水质类别.高锰酸钾指数.高锰酸钾指数水质类别.总有机碳.总有机碳水质类别.断面属性.监测站点简介.属于流域等等. 接口名称:全国水质查询api 接口平台:免费数据 接口地址:http://web.juhe.cn:8080/environment/water/river 支持格式:JSON 请求方式:GET 请求示例:http://web.juhe.cn:8080/environment/wa

【python爬虫】根据查询词爬取网站返回结果

最近在做语义方面的问题,需要反义词.就在网上找反义词大全之类的,但是大多不全,没有我想要的.然后就找相关的网站,发现了http://fanyici.xpcha.com/5f7x868lizu.html,还行能把"老师"-"学生","医生"-"病人"这样对立关系的反义词查出来. 一开始我想把网站中数据库中存在的所有的词语都爬出来(暗网爬虫),但是分析了url的特点: http://fanyici.xpcha.com/5f7x86

凌阳爱普协办“2014全国高校物联网院长高峰论坛”

8月1日-8月3日,全球领导品牌研华科技与业界先进企业凌阳爱普将于昆山(研华协同创新研发中心A+TC暨智慧城市与物联网应用展示中心)共同举办"2014全国高校物联网院长高峰论坛",会议以"驱动物联教育创新 共建产学合作典范"为主题,我们期盼通过此次会议,与您共同促进基于物联网应用的教育模式创新,推动全国高校物联网专业健康发展. 物联网作为一项战略性新兴产业,对建设创新型国家意义重大.随着物联网行业在国内的起步与飞速发展,未来3年内我国将有50万物联网人才缺口.为进一

全国天气查询api

全国天气查询接口: 根据城市名称刻查询到该城市的天气情况,湿度,温度,穿衣指数等 详情:http://www.haoservice.com/docs/6 示例演示: { "resultcode": "200", "reason": "查询成功!", "result": { "sk": { /*当前实况天气*/"temp": "21", /*当前温度