首页统计脚本

--统计表
SELECT * FROM T_SG_SJDJTJ;
--数据表
SELECT * FROM v_dataservice_ext T WHERE T.DATA_TYPE=‘0‘;

--从描述信息核对(统计表有,业务表没有)
SELECT * FROM T_SG_SJDJTJ T WHERE T.MSXX
NOT IN(
SELECT S.DATA_NAME FROM v_dataservice_ext S WHERE S.DATA_TYPE=‘0‘
);

--从表名核对
SELECT t.*,t.rowid FROM T_SG_SJDJTJ T WHERE T.YWB
NOT IN(
SELECT S.TABLE_NAME FROM v_dataservice_ext S WHERE S.DATA_TYPE=‘0‘
);

--综合核对
SELECT M.TABLE_NAME,N.YWB,M.UNIT_NAME,N.YWDW FROM v_dataservice_ext M,
(
SELECT T.MSXX,T.YWB,T.YWDW FROM T_SG_SJDJTJ T WHERE T.YWB
NOT IN(
SELECT S.TABLE_NAME FROM
v_dataservice_ext S, T_SG_SJDJTJ T
WHERE
S.DATA_TYPE=‘0‘
AND S.DATA_NAME=T.MSXX
AND S.UNIT_NAME=T.YWDW
--AND S.TABLE_NAME<>T.YWB
))N WHERE M.DATA_NAME=N.MSXX AND M.DATA_TYPE=‘0‘;
--本周更新数据
SELECT * FROM T_SG_SJDJTJ  S
WHERE S.MSXX
NOT IN(
SELECT T.DATA_NAME FROM  T_SJTJ T
);
时间: 2024-08-01 22:43:17

首页统计脚本的相关文章

python编写文件统计脚本

思路:用os模块中的一些函数(os.listdir().os.path.isdir().os.path.join().os.path.abspath()等) 实现功能:显示多级目录,以及自己要找的具体文件类型(例:以".py"结尾的文件),并读取每个文件的第一行(一般为注释说明,这样就能大致了解这个文件是干事什么的) 先编写二级目录文件统计脚本 代码如下: #文件统计 os.chdir("F:\\pythonstudy") for fp in os.listdir(

&ldquo;代码量统计脚本&rdquo;

概述 本文从一段统计C/C++程序脚本入手,记录shell脚本常用和重要的知识点. 代码量统计程序 文件名称,count_code_line.sh 123456789101112131415161718192021222324252627282930313233343536 #!/bin/bash # 统计代码行数 去除空格和注释# author: by wangxintang function count_dir(){ total1=0 for input in $* do count=`fi

快网CDN日志统计脚本

公司使用的快网的CDN,但是快网本身并不提供日志的分析统计,我这里还没有用elk,无奈只能先使用shell对日志进行分析统计,作为运维组对业务情况的一个大致的了解. 脚本是对前一天的CDNLOG进行解压缩分析,最后将结果按类输出到指定目录,再将这些结果打包扔回CDNLOG目录,因为CDNLOG目录是要上传云存储的,一并保存.其实还有一个动作,是将这些内容作为参数传给python脚本给一个监控系统,出图便于查看,这里没有贴上. 同样作为留底,不喜勿喷. #!/bin/bash function l

Nginx日志切割及常用统计脚本

1,编辑脚本 进入到/usr/local/nginx/logs日志目录下,新建一个脚本,添加下面内容.指定好日志目录路径,日志文件名称和pid的文件,最后kill -USR1信号用来告知应用程序重载配置文件 vim log.sh #!/bin/bash logs_path="/usr/local/nginx/logs/" mv ${logs_path}www_mrliangqi.log ${logs_path}www_mrliangqi$(date -d "yesterday

awk数值统计脚本

通信公司工作,经常处理各种协议接口,在统计协议接口字段内容时,需要统计字段填写的内容是否正确,和占比是多少.要是单次统计,估计会把人累死,写个脚本统计,轻松便捷. 举例:接口内容 这是一条话单,这样的话单有很多条 24|eb8f7837000039|||8613522222222|||2016092817|2016092817|7|1|10.82.58.2|4010|10.82.99.10|3868|2001 统计结果举例: 截取第10和11字段 --------- [ 10 ] -------

统计脚本代码行数

#!/bin/bash #统计当前文件夹(包括子文件夹)下.sh脚本有效代码行数,不包括注释,和空行 #所有行 MY_LIST_VAR=`egrep -c -h -R --include="*.sh" ^.*$` #echo $MY_VAR MY_ALL_COUNT=0 #所有空行 MY_LIST_SPACE_VAR=`egrep -c -h -R ^$ --include="*.sh"` #echo $MY_LIST_SPACE_VAR MY_ALL_SPACE_

服务器资源使用情况统计--脚本

[[email protected] sjx]# cat per-html.sh #!/bin/bash perf () { # #    Size        Used        Avail        Use% # echo '<table border="0">' echo '<thead align="right">' echo -e "<tr>\n\t<th colspan='"5&qu

ping主机在线统计脚本

//ping测试  检测局域网在线主机与不在线主机,并分别将它们打印出来 //并统计它们的数量 #!/bin/bash # //声明网络地址 host_pre="192.168.0" //声明在线主机数量 declare -i active_sum=0 //声明不在线主机数量 declare -i unactive_sum=0 // for 循环执行ping主机测试 for i in {1..254}; do if ping -c 1 -w 1 "$host_pre.$i&q

大数据统计脚本, 分城市订单统计

date_parameter <- "2016-08-01"start_date<-as.Date(date_parameter)dayCount_parameter = 1array = strsplit(as.character(start_date),"-")year = as.character(array[1])month=as.character(array[2]) hiveContext <- sparkRHive.init(sc)s