抓取存储quota超过80%的users

抓取存储quota超过80%的AD域users

注:

1、ASPERADATA为存储卷名,MING为域名

2、通过对MING进行替换(替为空),再删除“\”,剩下就是除域名后的具体名字(完整域名如:MING\zhi.yang)

#!/bin/bash

Date=`date +%Y%m%d`

Date2=`date +%Y%m%d -d "7 days ago"`

Dir=/tools/aspera

/bin/rm -rf $Dir/users_use.txt

/bin/rm -rf $Dir/used.txt

/bin/rm -rf $Dir/warn_$Date2.txt

/usr/bin/touch $Dir/users_use.txt

/usr/bin/touch $Dir/used.txt

/usr/bin/touch $Dir/warn_$Date.txt

ssh 10.0.0.40 "quota report -x" | grep ASPERADATA > $Dir/aspera.txt

/bin/cat $Dir/aspera.txt | awk -F[:" "]+ ‘{print $2}‘ | grep MING > $Dir/users2.txt

sed -i ‘s/MING/ /g‘ $Dir/users2.txt

tr -d ‘ \‘ $Dir/users.txt

/bin/cat $Dir/users2.txt | tr -d ‘\‘ > $Dir/users.txt

for i in `cat $Dir/users.txt`

do

Used=`cat $Dir/aspera.txt | grep $i | awk -F[:" "]+ ‘{print $5}‘`

Total=`cat $Dir/aspera.txt | grep $i | awk -F[:" "]+ ‘{print $6}‘`

/bin/echo $i,$Used,$Total >> $Dir/users_use.txt

/bin/echo $Used >> $Dir/used.txt

done

for ii in `cat $Dir/used.txt`

do

if [ $ii -gt 83880000 ] && [ $ii -lt 104857600 ];then

/bin/cat $Dir/users_use.txt | grep $ii >> $Dir/warn_$Date.txt

fi

if [ $ii -gt 167770000 ] && [ $ii -lt 209715200 ];then

/bin/cat $Dir/users_use.txt | grep $ii >> $Dir/warn_$Date.txt

fi

done

/usr/bin/scp -r $Dir/warn_$Date.txt [email protected]:/log/aspera/

时间: 2024-08-24 08:57:19

抓取存储quota超过80%的users的相关文章

shell脚本抓取用户存储quota写道mysql并展现到grafana面板

通过shell脚本抓取存储home用户的空间使用情况,写到excel文件里,再导入到mysql数据库,最后通过grafana进行展示 vi aa.sh #!/bin/bash Date=date +"%Y-%m-%d %H:%M:%S"Date2=date +"%Y-%m-%d" Dir=/logs/Homes /bin/rm -rf $Dir/quota2.txt/bin/touch $Dir/quota2.txt /usr/bin/ssh 10.0.0.10 &

URLStringGrabber(U R L 字串抓取器)

软件简介: URLStringGrabber 是一个可以扫描所有已打开的 Internet Explorer 窗口和抓取存储在其中的URLs的小工具,包括可点击的链接.图片.脚本文件.CSS文件.RSS提要和Flash(SWF)文件.这些URL列表显示在表中,并且你可以很容易地导出部分URL或整个URL列表为文本/CSV/HTML或XML文件. 图片预览: 下载地址:http://dickmoore.cn/Down/urlstringgrabber.zip 文章作者:DickMoore 文章来源

利用scrapy抓取网易新闻并将其存储在mongoDB

好久没有写爬虫了,写一个scrapy的小爬爬来抓取网易新闻,代码原型是github上的一个爬虫,近期也看了一点mongoDB.顺便小用一下.体验一下NoSQL是什么感觉.言归正传啊.scrapy爬虫主要有几个文件须要改动.这个爬虫须要你装一下mongodb数据库和pymongo,进入数据库之后.利用find语句就能够查看数据库中的内容,抓取的内容例如以下所看到的: { "_id" : ObjectId("5577ae44745d785e65fa8686"), &qu

python知乎内容抓取(redis存储)

因为平时喜欢上知乎,发现其话题是一个有向无环图(自己介绍说得),一级一级往上最后到根话题,所以我就想尝试从根话题一级一级往下将其全部内容爬取.最后实践过程中发现自己想多了..有以下三个问题: 1.数据量巨大,单台电脑能力肯定不够.我这里只抓取了话题结构和话题对应的单个页面(不翻页)的一些呈现信息,没有抓取具体问题回答的内容. 2.如果直接连续抓取,没多少次就会被知乎检测到异常,这里使用代理ip可以解决. 3.最麻烦的是要查看所有话题结构必须要登录(如下图示例显示的子话题是可以抓到的,但是点击查看

使用JavaCV/OpenCV抓取并存储摄像头图像

http://blog.csdn.net/ljsspace/article/details/6702178  分类: 图形图像(3)  版权声明:本文为博主原创文章,未经博主允许不得转载. 本程序通过JFrame实时显示本机摄像头图像,并将图像存储到一个缓冲区,当用户用鼠标点击JFrame中任何区域时,显示抓取图像的简单动画,同时保存缓冲区的图像到磁盘文件中.点击JFrame关闭按钮可以退出程序. 实现: [java] view plain copy import java.awt.Graphi

Google去抓取同一文件的流量就超过了700Mbps。DDOS爬虫攻击

只需要使用一台笔记本,打开几个web标签页,仅仅拷贝一些指向10MB文件的链接,Google去抓取同一文件的流量就超过了700Mbps. Google的FeedFetcher爬虫会将spreadsheet的=image("link")中的任意链接缓存. 如果我们将=image("http://example.com/image.jpg")输入到任意一个Google spreadsheet中,Google就会"派出"FeedFetcher爬虫去抓取

Python爬虫抓取糗百的图片,并存储在本地文件夹

思路: 1.观察网页,找到img标签 2.通过requests和BS库来提取网页中的img标签 3.抓取img标签后,再把里面的src给提取出来,接下来就可以下载图片了 4.通过urllib的urllib.urlretrieve来下载图片并且放进文件夹里面(第一之前的准备工作就是获取当前路径然后新建一个文件夹) 5.如果有多张图片,不断的重复3-4 由于爬虫写得少,通过自己的调试,终于写了出来了 下面直接上代码: 1 #coding = 'utf-8' 2 import requests 3 f

数据从业者必读:抓取了一千亿个网页后我才明白,爬虫一点都不简单

编者按:互联网上有浩瀚的数据资源,要想抓取这些数据就离不开爬虫.鉴于网上免费开源的爬虫框架多如牛毛,很多人认为爬虫定是非常简单的事情.但是如果你要定期上规模地准确抓取各种大型网站的数据却是一项艰巨的挑战,其中包括网站的格式经常会变.架构必须能灵活伸缩应对规模变化同时要保持性能,与此同时还要挫败网站反机器人的手段以及维护数据质量.流行的Python爬虫框架Scrapy开发者Scrapinghub分享了他们抓取一千亿个网页后的经验之谈. 现在爬虫技术似乎是很容易的事情,但这种看法是很有迷惑性的.开源

记录一次网页抓取程序的实现

2016年一月,刚做完三个课程设计,C++网络版打地鼠,北山超市收银系统J2EE,JAVA聊天程序,累不堪言,置身奋斗之年承受这些是应该的,毕竟自己的技术还太菜了,没有一个开发者应有的底气. -------------------------------------- 前记 在此之际,一同事介绍了一个项目,做一个教务信息记录抓取到自己的网页显示之. --------------------------------------缘由 做这个东西首先也百度了下,网上的文章大多没什么营养,不过也基于网上