运维:windows+python+route的一次相遇

  • 自言自语

作为一名网络运维工程师,自从接触了linux就被脚本语言所着迷。从Shell到java到expect再到python,慢慢的变得习惯用写运维工具的方式来解决日常运维问题。

本次写的运维工具让我get到了很多新技能,觉得很有必要把思绪、过程详细的记录下来,以便日后回顾复习。该工具其实就是一个在windows上用来检测路由的python程序。我是python小菜鸡,请各路大神多指教!

  • 功能说明:

每天凌晨4点从远端服务器获取指定的调度域名列表,对调度域名逐个进行解析。对解析结果中的每个IP进行tracert路径跟踪。若路径中未经过指定出口节点,则判定为检测失败。将检测失败的域名对应的IP写进邮件正文。若邮件正文内容不为空,代表有检测到失败的域名,发送邮件到指定运维人员邮箱。

  • 实现思路:

1、linux中要实现每天凌晨4点执行一个程序,使用contab会很方便。但在windows系统要实现定期执行,就要用到windows自带的任务与计划(让程序每执行一次,休眠24小时也能实现,但效果肯定没任务与计划好和灵活);

2、利用wget方式从远端服务器获取调度域名列表(感觉wget比ftp\tftp要来的更强大一丁丁),剩下的解析、检测、发送邮件等用python脚本实现。选择python是因为python脚本也可以在linux系统上使用方便后期调整。(感觉cygwin运行shell脚本或java都没有python来的方便);

  • 实现过程:

1、在远端服务器1.1.1.1上放好指定调度域名列表,开启Apache服务

[[email protected] ~]# cat /var/www/html/diaodu.txt 
data.video.qiyi.com
g3.letv.com
k.youku.com
pl.youku.com
data.vod.itc.cn
v2.tudou.com
ips.ifeng.com
v.iask.com
wtv.v.iask.com
vv.video.qq.com
zb.v.qq.com

2、利用python获取调度域名列表,并完成解析、检测等一系列功能

# coding:utf-8

"""文档说明:
该软件用于调度自动检测
1、从服务器wget调度域名列表文件
2、从文件中读取调度域名并逐个tracert
3、判断tracert结果,若路径中包含30.207.4.250表示调度正常
4、若不正常,触发告警,发出告警邮件
5、在windows的任务与计划中,每天定期执行python脚本
6、运行日志直接输出在cmd窗口(可选)
"""
#-----重要:将‘节点名称‘改成相应的节点名称,如nap=‘河北‘

#----------导入模块-----------
import smtplib
import subprocess,re
from email.mime.text import MIMEText

#----------邮件发送函数-----------
def sendmail():            #定义发送邮件的函数
    nap=‘贵州‘        #给本机定义个名称,用以收件人区分邮件由哪个测试机发出
    sender=‘IpTracker2<[email protected]>‘   #发件人昵称及邮箱地址
    receivers=[‘[email protected]‘,‘[email protected]‘,‘[email protected]‘]
    subject=nap+‘调度检测发现异常!!!‘        #邮件标题    
    smtpserver=‘smtp.163.com‘                #发件人邮箱smtp服务器设置
    username=‘[email protected]‘        #发件人邮箱账号
    password=‘123456‘                #发件人邮箱密码
    content="\n".join(detected)        #列表detected中每个元素以回车分割,返回一个字符串
    print (‘异常内容是:‘+content)        #将content内容打印
    
    msg=MIMEText(content,‘text‘,‘utf-8‘)
    msg[‘Subject‘]=subject
    msg[‘to‘]=‘;‘.join(receivers)        #列表receivers元素以分号分隔
    msg[‘from‘]=sender

    smtp=smtplib.SMTP()
    smtp.connect(‘smtp.163.com‘)
    smtp.login(username,password)
    smtp.sendmail(sender,recivers,msg.as_string())
    smtp.close()

#----------获取调度域名文件-----------
#下载日志记录于wgetlog.txt中,下载文件保存于c:/Python34,以diaodu.txt命令

print ("开始获取文件")
subprocess.call(‘wget -a wgetlog.txt -O diaodu.txt -P c:\Python34 http://1.1.1.1/diaodu.txt‘)
print ("文件已更新")

#----------解析调度域名,获取调度IP----------
r_getip=r‘\d+\.+\d+\.+\d+\.+\d+‘    #定义过滤IP地址的正则表达式

file=open("c:\Python34\diaodu.txt")        #打开文件
file.seek(0,0)            #设置指针到行首
r_watone=r‘30.207.4.250|30.207.6.154|10.30.96.10‘   #定义指定出口的正则表达式
detected=[]
count=1
for name in file:        #遍历调度域名列表
    name=name.strip(‘\n‘)        #去除域名后面的\n符号,防止解析错误
    resolve=subprocess.getoutput(‘nslookup ‘+name)    #解析调度域名,将结果保存在resolve
    track_ip=re.findall(r_getip,resolve)    
    track_ip.pop(0)        #过滤出resolve中所有的IP地址,并删除第一个IP(第一个IP是DNS地址)
            
    print (name+‘解析成功,IP是:‘)
    print (track_ip)
    print (‘开始对这些IP进行逐个检测,请耐心等候.........‘)
#---------跟踪调度IP并进行判断---------
    for ip in track_ip:        #对解析出来的IP遍历
        traceroute=subprocess.getoutput(‘tracert -d ‘+ip)    #保存路径跟踪结果
        find=re.findall(r_watone,traceroute)    
        if len(find)==0:        #在路径中搜索出口IP并放入列表find,若长度为0代表没从出口走
            detected.append(name+"对应IP:"+ip+"检测失败!")
            #将检测到域名及IP放入列表detected中
    print ("第"+str(count)+"个域名检测结束!")
    count+=1       

#-----异常信息整理并发送告警邮件---------
try:
    if len(detected)!=0:    #若detected列表长度不为0,代表有域名及IP被写入
        print ("有发现")
        sendmail()            #发送告警邮件
        print ("邮件已发送!")
    else:
        print ("本次没有发现异常")
except Exception:
    print ("程序有异常")
finally:
    close=file.close()        #关闭文件
if close is None:
    print ("文件关闭成功,检测结束!")    #确认文件关闭成功
else:
    print ("文件关闭失败,请检查!")

3、为保护文件不被别人误修改,加快脚本执行速度,对python脚本进行编译。将编译后的PYC文件拷贝到c:/Python34目录下,名字改为Iptracker2.pyc

>>> import py_compile
>>> py_compile.compile(‘c:/Python34/IpTracker2.py‘)
‘c:/Python34\\__pycache__\\IpTracker2.cpython-34.pyc‘
>>>

4、将wget.exe拷贝到c:/Python34目录,并创建批处理文件auto.bat,方便后面创建任务与计划。用记事本打开auto.bat,写入:

cd c:/Python34
python C:\Python34\IpTracker2.pyc

5、创建任务与计划,打开控制面板--管理工具--任务与计划

①、  点击页面右上方‘创建任务’

②、填写任务名称并选择无论用户是否登录均执行(该种方式运行不会弹出cmd界面,直接后台运行)

④、新建触发器,选择每天凌晨4点为触发条件

⑤、创建动作,执行批处理脚本auto.bat

⑥、在设置中将以下两个打勾,防止任务执行失败。点击确认,输入windows密码点击确认

⑦、在任务列表中查看任务IpTracker2状态为就绪,说明创建成功

  • 成果展示,告警邮件内容:

时间: 2024-07-30 06:34:26

运维:windows+python+route的一次相遇的相关文章

运维学python之爬虫高级篇(六)scrapy模拟登陆

上一篇介绍了如何爬取豆瓣TOP250的相关内容,今天我们来模拟登陆GitHub. 1 环境配置 语言:Python 3.6.1 IDE: Pycharm 浏览器:firefox 抓包工具:fiddler 爬虫框架:Scrapy 1.5.0 操作系统:Windows 10 家庭中文版 2 爬取前分析 分析登陆提交信息分析登陆信息我使用的是fiddler,fiddler的使用方法就不作介绍了,大家可以自行搜索,首先我们打开github的登陆页面,输入用户名密码,提交查看fiddler获取的信息,我这

linux运维及Python运维免费公开课

适用人群:想从事linux运维及python运维开发的人员 企业网管.技术支持.linux运维人员.大中专学生 听课时间:2014年11月30日(周日)下午1:30 听课地点:北京市昌平区沙河青年创业大厦B座1519室(地铁昌平线沙河站B1口200米处) 听课内容: LINUX运维:(1.5小时) 1.软件开源的大发展趋势及如何把握这个趋势? 2.linux运维职位到底都做什么? 3.linux运维前景到底咋样? 4.到底是选择运维还是选择开发发展? 5.运维人员如何超越年薪30万,50万? 6

运维学python之爬虫中级篇(五)数据存储(无数据库版)

本篇主要介绍,爬取html数据后,将html的正文内容存储为json或csv格式. 1 json格式存储 选定要爬取的网站后,我们利用之前学过的内容,如:Beautiful Soup.xpath等方式解析,来获取我们希望得到的内容. 1.1 获取数据 首先使用urllib访问页面https://www.lagou.com/zhaopin/Python/?labelWords=label获取html内容,代码如下: from urllib import request try: url = 'ht

运维学python之爬虫中级篇(六)基础爬虫

通过这么多天对爬虫的介绍, 我们对爬虫也有所了解,今天我们将引入一个简单爬虫的技术架构,解释爬虫技术架构中的几个模块,后面的爬虫也多是今天架构的延伸,只不过这个架构是简单的实现,对优化.爬取方式等不是很完善,主要为了方便大家对爬虫的理解和后面的编程. 1 基础架构和流程 简单的爬虫架构由以下几部分构成:爬虫调度器:总体协调其它几个模块的工作URL管理器:负责管理URL,维护已经爬取的URL集合和未爬取的URL集合网页下载器:对未爬取的URL下载网页解析器:解析已下载的html,并从中提取新的UR

运维学python之爬虫高级篇(五)scrapy爬取豆瓣电影TOP250

对于scrapy我们前面已经介绍了简单的应用,今天我们用一个完整的例子,爬取豆瓣电影TOP250来做一个小的练习,把scrapy阶段做一个总结. 1 环境配置 语言:Python 3.6.1 IDE: Pycharm 浏览器:firefox 爬虫框架:Scrapy 1.5.0 操作系统:Windows 10 家庭中文版 2 爬取前分析 2.1 需要保存的数据 首先确定我们要获取的内容,在items中定义字段,来将非结构化数据生成结构化数据,获取的内容主要包括:排名.电影名称.得分.评论人数.如下

tiger运维走向Python开发

二.Python发展史 三.Python 2 or 3? 系统位数 32位与64位的区别 32bit =内存的最大寻址空间是2**32, 4GB 64bit, =2**64 但实际上支持不到这莫大的内存,2**4x, 目前主板支持的最大的内存是100多GB 4gb ==64位系统 会不会比32位系统快? = 一样的 http://jingyan.baidu.com/article/215817f7c772991edb142374.html CPU—内存—硬盘速度比拼 硬盘: 5400转 = 每分

运维学python之爬虫中级篇(八)MongoDB

1 MongoDB MongoDB 是由C++语言编写的,是一个基于分布式文件存储的开源数据库系统.具有高性能.高可用性和自动扩展性.MongoDB 将数据存储为一个文档,数据结构由键值(key=>value)对组成.MongoDB 文档类似于 JSON 对象的BSON.字段值可以包含其他文档,数组及文档数组.MongoDB最大的特点是他支持的查询语言非常强大,其语法有点类似于面向对象的查询语言,几乎可以实现类似关系数据库单表查询的绝大部分功能,而且还支持对数据建立索引. 1.1 安装Mongo

运维学python之爬虫高级篇(七)scrapy爬取知乎关注用户存入mongodb

首先,祝大家开工大吉!本篇将要介绍的是从一个用户开始,通过抓关注列表和粉丝列表,实现用户的详细信息抓取并将抓取到的结果存储到 MongoDB. 1 环境需求 基础环境沿用之前的环境,只是增加了MongoDB(非关系型数据库)和PyMongo(Python 的 MongoDB 连接库),默认我认为大家都已经安装好并启动 了MongoDB 服务. 项目创建.爬虫创建.禁用ROBOTSTXT_OBEY设置略(可以参考上一篇) 2 测试爬虫效果 我这里先写一个简单的爬虫,爬取用户的关注人数和粉丝数,代码

安全运维 - Windows系统应急响应

挖矿病毒应急 传播方式: 通过社工.钓鱼方式下载和运行了挖矿程序(邮件.IM等) 利用计算机系统远程代码执行漏洞下载.上传和执行挖矿程序. 利用i算计Web或第三方软件漏洞获取计算机权限,然后下载和执行挖矿程序. 利用弱密码进入系统,下载和执行挖矿程序 执行Web页面的挖矿JS脚本 挖矿程序特点: CPU.GPU.内存利用率高: 网络会连接一些矿工IP,可以通过威胁情报获取 挖矿程序应急目的 找出入侵原因 找到挖矿程序并删除 勒索病毒事件应急 勒索病毒特点 各种数据文件和可执行程序生成奇怪的后缀