日志分析命令awk基础用法

awk

awk是一个很好用的文本处理工具,相对于sed常用用作一整行的处理,awk则比较擅长将一行分成数个字段来处理。而在我们性能测试中,可以awk可以帮助我们造数,也可以帮助我们分析日志。

简单来说,awk就是用一个循环实现的。首先awk读取文本的一行(默认是从第一行开始,淡然也可以根据条件选择行),然后根据你给的条件来处理这行的某个字段;处理完成后,再读取下一行,然后再根据条件去处理字段,直到处理完成所有的行。

awk的标准格式

awk ‘条件类型1{动作1} 条件类型2{动作2}.......‘

awk常用的内置变量

NR:现在处理的是第几行数据

NF:每行一共的字段数      可以用来取倒数第一列,第二列,例如:awk  ‘{print   $(NF-1),$NF }‘   test01.txt     $NF 代表最后一列,$(NF-1)代表倒数第二列

$0:代表一整行数据

$1:代表第一个字段,以此类推

RS 输入行分隔符(默认为回车)

ORS 输出行分隔符(默认为回车)

FS 字段分隔符(默认为空格)

-F  指定多个字段分隔符并且支持正则表达式(比FS更加强大一些)

OFS 输出字段分隔符(默认为空格)

格式化输出

print函数

特性

  1. 参数可以是变量、计算值、或字符串常量
  2. 字符串必须用双引号括起来
  3. 参数之间用逗号分隔(输出分隔符由变量OFS决定)
  4. 输出可以被重定向
  5. 输出和输入之间可以通过管道

printf函数

特性

  1. 返回给标准输出一个带有格式的字符串
  2. 不会在行尾自动换行
  3. 包含一个加引号的字符串

修饰符

  1. “-”        左对齐
  2. #         八进制加0 十六进制加0x
  3. +         加上正负号+或-
  4. 0         用0填充空白符

条件语句

格式:{if{(expression){

statement; statement;….

}

else if(expression){

statement; statement;….

}

else{ statement; statement;….

}

}

可以使用条件,对字段进行处理

实战演练

例1

如下文本我只想要第一列和第三列然后重定向到test001.txt中

awk ‘{print $1,$3}‘ example.txt >test001.txt

例2

如果字段的分隔符不是空格,那么我们需要先提前指定分隔符,使用-F或者FS,以passwd文件为例,每个字段是以冒号分隔的,我们想取出第二个字段,和第七个字段

awk -F‘:‘ ‘{print $2,$7}‘ /etc/passwd

例3

默认出输出字段分隔符是空格,如果想改变默认输出分隔符呢,比如改成|

文本test001,原来的内容

awk ‘{OFS="|"}{print $1,$2}‘ test001.txt

例4

默认输出行分隔符是回车,如果想把分隔符改成|呢,

文本test001,原来的内容,默认行分隔符为回车

例5

如果要处理的文本,默认不是以回车作为行的分隔符,我们希望处理之后,以回车作为空格符

要处理的文本,以”_”作为行的分隔符,我们想以回车为分隔符

awk ‘BEGIN{RS="_"}{print $0}‘ test003.txt

例6

业务要求,一个播种墙号,对应一个波次号,播种墙号不能重复。文件中已有波次号(第二列),是重复的,但是每个号重复的数量不确定;需要自己添加播种墙号,播种墙号是连续的

思路:使用awk进行处理,先读取第一行的播次号,把他赋值给一个变量,然后拿每行的波次号和这个变量相比较,如果相等,则播种墙号不变,如果不等,则播种墙号+1

由于语句较长,因此,写成shell脚本

#$1的值赋值给qiang这个变量(这里的$1、$2指的是shell的参数,不是awk里面的)

#$2的值赋值给boci这个变量

#进行判断,如果$2(即文件里波次号)的值等于变量boci的值,那么输出原始文件整行和播种墙号

#如果$2(即文件里波次号)的值不等于变量boci的值,播种墙号+1,然后输出输出原始文件整行和播种墙号

原文地址:https://www.cnblogs.com/niuniu2018/p/8866873.html

时间: 2024-11-09 01:00:48

日志分析命令awk基础用法的相关文章

性能测试日志分析之awk基础用法

转发自:微信公众号"测试那点事儿 "的文章 我们做性能测试的时候要进行一些日志分析,最简单的可以用awk命令进行分析. awk awk是一个很好用的文本处理工具,相对于sed常用用作一整行的处理,awk则比较擅长将一行分成数个字段来处理.而在我们性能测试中,可以awk可以帮助我们造数,也可以帮助我们分析日志. 简单来说,awk就是用一个循环实现的.首先awk读取文本的一行(默认是从第一行开始,当然也可以根据条件选择行),然后根据你给的条件来处理这行的某个字段:处理完成后,再读取下一行,

linux下常用的日志分析命令

linux下常用的日志分析命令 本文介绍下,在linux中常用的一些分析日志的命令行或脚本,有需要的朋友参考下. 形如下面这样的access.log日志内容: 211.123.23.133 – - [10/Dec/2010:09:31:17 +0800] “GET /query/trendxml/district/todayreturn/month/2009-12-14/2010-12-09/haizhu_tianhe.xml HTTP/1.1″ 200 1933 “-” “Mozilla/5.

日志分析-1.rsyslog 基础配置(服务器/客户端)

日志分析-1.rsyslog 基础配置(服务器/客户端)centos6起/etc/syslog.conf不再有!而是/etc/rsyslog.conf代替!rsyslog是syslog的多线程增强版,现在Fedora.Ubuntu,.rhel6.centos6默认的日志系统都是rsyslog了.rsyslog主要用来收集系统产生的各种日志,日志默认放在/var/log/目录下.日志收集工具,不仅仅可以收集本机的日志,还可以收集其他机器的日志 在客户端/服务器架构的配置下,rsyslog同时扮演了

【运维小分享】Apache日志分析命令汇总

很多像我这样刚入门的小菜鸟,不知道日常怎么对自己的网站的日志进行分析,得出谁访问过我网站,访问什么,响应效果如何等等,在这里我对相关基础分析命令作个总结,大家可以参考一下&给修改意见. 在讲分析命令之前,首先要明确日志格式,每个人的格式不一定一样,如果与我的格式不一样则分析命令的列数号要作对应调整 141.10.225.94 - - [09/Dec/2016:15:42:45 +0800] "GET /wp-content/uploads/2016/12/56.jpg HTTP/1.1&

常用服务器日志分析命令大全

1.查看有多少个IP访问: awk '{print $1}' log_file|sort|uniq|wc -l # wc -l 看看有多少行 2.查看某一个页面被访问的次数: grep "/index.php" log_file | wc -l 3.查看每一个IP访问了多少个页面: awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file > log.txt sort -n -t ' ' -k 2 log.txt # 配合s

grep命令的基础用法及进阶

bash 通配符: *: ?: []: 所有以m,n,r开头的以.conf结尾的文件 eg:[mnr].conf [^]:非[]中的 [[:space:]] [[:upper:]] [[:lower:]] [[:alnum:]] [[:digit:]] [[:punct:]] 通配符:需要说明的是:通配符看起来有点象正则表达式语句,但是它与正则表达式不同的,不能相互混淆.把通配符理解为shell 特殊代号字符就可. 而且涉及的只有,*,? [] ,{} 这几种. 字符              

awk基础用法

awk是神通广大的工具,不学一下的话,shell脚本写起来真的好艰难... awk有很多不同的版本,这里采用的是gawk(依我看,功能都差不多),它用来检索一些文件,从中找出匹配指定模式的行,然后在这些行上执行指定的动作. 基本格式如下: gwak options 'pattern {action}' file-list 其中,file-list是gawk的数据来源:options是一些特定的选项:主要部分"模式+动作"必须要放在单引号内,而且动作还要用花括号括起来.主要部分如果太多的

“date”命令的基础用法

** "date" 是用来表示日期和时间的命令,在Linux运用里是比较重要的命令.在系统里输入 "date",显示的是当前的日期.时间,它是以"星期 月份 几号 时分秒 中国时区 年份"的格式显示的.操作效果如下:[[email protected] LI ~]# date Sun Dec 9 17:41:08 CST 2018但对于国人来讲,这种格式非常的不习惯,于是我们还需要掌握另一种"年月日"格式的输入方式,同样的先输

Linux Apache日志分析--命令

1.获得访问前10位的ip地址cat access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -10 2.访问次数最多的文件或页面,取前10cat access.log|awk '{print $11}'|sort|uniq -c|sort -nr|head -10 3.列出传输最大的几个exe文件cat access.log |awk '($7~/\.exe/){print $10 " " $1 " " $4