linux cut 、awk、grep、sed

cut是一个选取命令,就是将一段数据经过分析,取出我们想要的。一般来说,选取信息通常是针对“行”来进行分析的,并不是整篇信息分析的

cut  [-bn] [file] 或 cut [-c] [file]  或  cut [-df] [file]

ut 命令从文件的每一行剪切字节、字符和字段并将这些字节、字符和字段写至标准输出。
如果不指定 File 参数,cut 命令将读取标准输入。必须指定 -b、-c 或 -f 标志之一。

主要参数
-b :
以字节为单位进行分割。这些字节位置将忽略多字节字符边界,除非也指定了 -n 标志。
-c :以字符为单位进行分割。
-d :自定义分隔符,默认为制表符。
-f :与-d一起使用,指定显示哪个区域。
-n :取消分割多字节字符。仅和 -b 标志一起使用。如果字符的最后一个字节落在由 -b 标志的 List 参数指示的<br />范围之内,该字符将被写出;否则,该字符将被排除。

cut命令主要是接受三个定位方法:

第一,字节(bytes),用选项-b

第二,字符(characters),用选项-c

第三,域(fields),用选项-f

-b支持形如3-5的写法,而且多个定位之间用逗号隔开就成了

who|cut -b 3-5,8

cat /etc/passwd|head -n 5|cut -d : -f 1

用-d来设置间隔符为冒号,然后用-f来设置我要取的是第一个域,再按回车,所有的用户名就都列出来了

awk

awk 用法:awk ‘ pattern {action} ‘               awk 是对每行操作的,所以是以行为单位          ‘’ 硬转义,“软转义” 只能转义一些元字符,\可以转义一些元字符和通配符

变量名    含义 
ARGC   命令行变元个数 
ARGV   命令行变元数组 
FILENAME   当前输入文件名 
FNR   当前文件中的记录号 
FS   输入域分隔符,默认为一个空格 
RS   输入记录分隔符 
NF   当前记录里域个数 
NR   到目前为止记录数 
OFS   输出域分隔符 
ORS   输出记录分隔符

1、awk ‘/101/‘    file      显示文件file中包含101的匹配行。 
   awk ‘/101/,/105/‘  file 
   awk ‘$1 == 5‘    file 
   awk ‘$1 == "CT"‘    file    注意必须带双引号 
   awk ‘$1 * $2 >100 ‘   file  
   awk ‘$2 >5 && $2<=15‘  file

2、awk ‘{print NR,NF,$1,$NF,}‘ file     显示文件file的当前记录号、域数和每一行的第一个和最后一个域。 
   awk ‘/101/ {print $1,$2 + 10}‘ file       显示文件file的匹配行的第一、二个域加10。 
   awk ‘/101/ {print $1$2}‘  file 
   awk ‘/101/ {print $1 $2}‘ file       显示文件file的匹配行的第一、二个域,但显示时域中间没有分隔符。

3、df | awk ‘$4>1000000 ‘         通过管道符获得输入,如:显示第4个域满足条件的行。

4、awk -F "|" ‘{print $1}‘   file         按照新的分隔符“|”进行操作。 
   awk  ‘BEGIN { FS="[: \t|]" } 
   {print $1,$2,$3}‘       file         通过设置输入分隔符(FS="[: \t|]")修改输入分隔符。

Sep="|" 
   awk -F $Sep ‘{print $1}‘  file   按照环境变量Sep的值做为分隔符。    
   awk -F ‘[ :\t|]‘ ‘{print $1}‘ file   按照正则表达式的值做为分隔符,这里代表空格、:、TAB、|同时做为分隔符。 
   awk -F ‘[][]‘    ‘{print $1}‘ file   按照正则表达式的值做为分隔符,这里代表[、]

5、awk -f awkfile    file         通过文件awkfile的内容依次进行控制。 
   cat awkfile 
/101/{print "\047 Hello! \047"}    --遇到匹配行以后打印 ‘ Hello! ‘.  \047代表单引号。 
{print $1,$2}                      --因为没有模式控制,打印每一行的前两个域。

6、awk ‘$1 ~ /101/ {print $1}‘ file         显示文件中第一个域匹配101的行(记录)。

7、awk   ‘BEGIN { OFS="%"} 
   {print $1,$2}‘  file           通过设置输出分隔符(OFS="%")修改输出格式。

8、awk   ‘BEGIN { max=100 ;print "max=" max}             BEGIN 表示在处理任意行之前进行的操作。 
   {max=($1 >max ?$1:max); print $1,"Now max is "max}‘ file           取得文件第一个域的最大值。 
   (表达式1?表达式2:表达式3 相当于: 
   if (表达式1) 
       表达式2 
   else 
       表达式3 
   awk ‘{print ($1>4 ? "high "$1: "low "$1)}‘ file

9、awk ‘$1 * $2 >100 {print $1}‘ file         显示文件中第一个域匹配101的行(记录)。

10、awk ‘{$1 == ‘Chi‘ {$3 = ‘China‘; print}‘ file        找到匹配行后先将第3个域替换后再显示该行(记录)。 
    awk ‘{$7 %= 3; print $7}‘  file           将第7域被3除,并将余数赋给第7域再打印。

11、awk ‘/tom/ {wage=$2+$3; printf wage}‘ file          找到匹配行后为变量wage赋值并打印该变量。

12、awk ‘/tom/ {count++;}  
         END {print "tom was found "count" times"}‘ file            END表示在所有输入行处理完后进行处理。

13、awk ‘gsub(/\$/,"");gsub(/,/,""); cost+=$4; 
         END {print "The total is $" cost>"filename"}‘    file             gsub函数用空串替换$和,再将结果输出到filename中。 
    1 2 3 $1,200.00 
    1 2 3 $2,300.00 
    1 2 3 $4,000.00

awk ‘{gsub(/\$/,"");gsub(/,/,""); 
    if ($4>1000&&$4<2000) c1+=$4; 
    else if ($4>2000&&$4<3000) c2+=$4; 
    else if ($4>3000&&$4<4000) c3+=$4; 
    else c4+=$4; } 
    END {printf  "c1=[%d];c2=[%d];c3=[%d];c4=[%d]\n",c1,c2,c3,c4}"‘ file 
    通过if和else if完成条件语句

awk ‘{gsub(/\$/,"");gsub(/,/,""); 
    if ($4>3000&&$4<4000) exit; 
    else c4+=$4; } 
    END {printf  "c1=[%d];c2=[%d];c3=[%d];c4=[%d]\n",c1,c2,c3,c4}"‘ file 
    通过exit在某条件时退出,但是仍执行END操作。 
    awk ‘{gsub(/\$/,"");gsub(/,/,""); 
    if ($4>3000) next; 
    else c4+=$4; } 
    END {printf  "c4=[%d]\n",c4}"‘ file 
    通过next在某条件时跳过该行,对下一行执行操作。

14、awk ‘{ print FILENAME,$0 }‘ file1 file2 file3>fileall              把file1、file2、file3的文件内容全部写到fileall中,格式为 
    打印文件并前置文件名。

15、awk ‘ $1!=previous { close(previous); previous=$1 }    
    {print substr($0,index($0," ") +1)>$1}‘ fileall           把合并后的文件重新分拆为3个文件。并与原文件一致。

16、awk ‘BEGIN {"date"|getline d; print d}‘         通过管道把date的执行结果送给getline,并赋给变量d,然后打印。

17、awk ‘BEGIN {system("echo \"Input your name:\\c\""); getline d;print "\nYour name is",d,"\b!\n"}‘ 
    通过getline命令交互输入name,并显示出来。 
    awk ‘BEGIN {FS=":"; while(getline< "/etc/passwd" >0) { if($1~"050[0-9]_") print $1}}‘ 
    打印/etc/passwd文件中用户名包含050x_的用户名。

18、awk ‘{ i=1;while(i<NF) {print NF,$i;i++}}‘ file 通过while语句实现循环。 
    awk ‘{ for(i=1;i<NF;i++) {print NF,$i}}‘   file 通过for语句实现循环。     
    type file|awk -F "/" ‘ 
    { for(i=1;i<NF;i++) 
    { if(i==NF-1) { printf "%s",$i } 
    else { printf "%s/",$i } }}‘               显示一个文件的全路径。 
    用for和if显示日期 
    awk  ‘BEGIN { 
for(j=1;j<=12;j++) 
{ flag=0; 
  printf "\n%d月份\n",j; 
        for(i=1;i<=31;i++) 
        { 
        if (j==2&&i>28) flag=1; 
        if ((j==4||j==6||j==9||j==11)&&i>30) flag=1; 
        if (flag==0) {printf "%02d%02d ",j,i} 
        } 

}‘

19、在awk中调用系统变量必须用单引号,如果是双引号,则表示字符串 
Flag=abcd 
awk ‘{print ‘$Flag‘}‘   结果为abcd 
awk ‘{print  "$Flag"}‘   结果为$Flag

===============================

$awk ‘BEGIN{total=0}{total+=$4}END{print total}‘ a.txt   -----对a.txt文件的第四个域进行求和!

  • $ awk ‘/^(no|so)/‘ test      -----打印所有以模式no或so开头的行。
  • $ awk ‘/^[ns]/{print $1}‘ test       -----如果记录以n或s开头,就打印这个记录。
  • $ awk ‘$1 ~/[0-9][0-9]$/(print $1}‘ test         -----如果第一个域以两个数字结束就打印这个记录。
  • $ awk ‘$1 == 100 || $2 < 50‘ test      -----如果第一个或等于100或者第二个域小于50,则打印该行。
  • $ awk ‘$1 != 10‘ test    -----如果第一个域不等于10就打印该行。
  • $ awk ‘/test/{print $1 + 10}‘ test  -----如果记录包含正则表达式test,则第一个域加10并打印出来。
  • $ awk ‘{print ($1 > 5 ? "ok "$1: "error"$1)}‘ test   -----如果第一个域大于5则打印问号后面的表达式值,否则打印冒号后面的表达式值。
  • $ awk ‘/^root/,/^mysql/‘ test        ----打印以正则表达式root开头的记录到以正则表达式mysql开头的记录范围内的所有记录。如果找到一个新的正则表达式root开头的记录,则继续打印直到下一个以正则表达式mysql开头的记录为止,或到文件末尾。
时间: 2024-07-28 17:43:59

linux cut 、awk、grep、sed的相关文章

linux中的文件处理grep、sed、awk

1.grep grep [options] pattern [file-]options:表示选项pattern:要匹配的模式.file:表示一系列的文件名选项:-c 只输出匹配行的计数-i 不区分大小写(用于单字符)-n 显示匹配的行号-v 不显示不包含匹配文本的所以有行-s 不显示错误信息-E 使用扩展正则表达式 grep -c 关键字 文件名 ##显示出现的关键字的行数grep -n 关键字 文件名 ##显示该关键字的行grep -n2 关键字 文件名 ##显示该关键字行的上下各两行gre

Linux文本处理工具之grep、egrep和fgrep

一.基本概念 正在表达式:正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符.及这些特定字符的组合,组成一个"规则字符串",这个"规则字符串"用来表达对字符串的一种过滤逻辑. grep(global search regular expression(RE) and print out the line):文本搜索工具,根据用户指定的文本模式对目标文件进行逐行搜索,显示能够被模式所匹配到的行(可以看成一个文本过滤器) egrep:使用扩展正则表达

Linux三剑客之grep、egrep及正则表达式使用详解

Linux三剑客是Linux中非常强悍的文本处理工具,掌握三剑客,文处理已想必会有三剑在手,天下我有的感觉,三剑客之grep家族擅长文本搜索,支持以正则表达式进行文本搜索,使得grep非常强悍,以下内容就grep,egrep和正则表达式展开 Linux文本工具三剑客:        grep.egrep.fgrep:文本搜索工具 sed:流编辑器,也是行编辑器 awk:文本格式化工具,文版报告生成器 正则表达式:是由一类字符所书写出的模式(pattern) 作用:配合支持使用正则表达式的文本搜索

二十八、awk

awk:流式编辑器,针对文档的行进行操作.awk兼具sed的所有功能,且更强大.可以对每段做匹配,不能更改文件内容,不像sed有-i选项能更改内容. 截取文档中的某段,示例: -F:指定分隔符,若不加-F,则以空格或tab为分隔符.print为打印的动作,用来打印某个字段.$1为第一个字段,以此类推,$0表示整行. # awk -F ':' {print $1} test.txt                      打印第一段 # head -n2 test.txt |awk -F ':'

Linux三剑客之一awk

之前给大家讲述了文本处理三剑客前两种,grep和sed.但是这周学习了第三种awk,感觉awk比前两个功能还要强大,相比sed也是以行进行处理,但是awk能以每一行的间隔符进行处理,用起来会更加方便.因此决定这周给大家详细介绍介绍awk. awk的基本用法:awk [options] 'pattern{action statements;..}' filename 一.options -F 指定间隔符 -v 指定变量 FS:输入字段分隔符,默认为空白字符 OFS:输出字段分隔符,默认为空白字符

Linux进阶命令-sort、uniq、 cut、sed、grep、find、awk

命令难度总体来说有简入难,参数都是工作中常常用到的.如果涉及到一些生僻的参数还请百度或man一下. sort(参考学习网站:http://www.cnblogs.com/dong008259/archive/2011/12/08/2281214.html) 功能:根据不同的数据类型进行排序 格式:sort [-cMnrtk][源文件][-o 输出文件] 说明: 如果有一个文件"1.txt",假如有一列数字,分别为1,2,2,3,5,4 -n:   依照数值的大小排序 --> 数字

利用多核CPU来加速Linux命令 — awk、sed、bzip2、grep、wc

你是否曾经有过要计算一个非常大的数据(几百GB)的需求?或在里面搜索,或其它操作--一些无法并行的操作.数据专家们,我是在对你们说.你可能有一个4核或更多核的CPU,但我们合适的工具,例如 grep, bzip2, wc, awk, sed等等,都是单线程的,只能使用一个CPU内核.借用卡通人物Cartman的话,"如何我能使用这些内核"?要想让Linux命令使用所有的CPU内核,我们需要用到GNU Parallel命令,它让我们所有的CPU内核在单机内做神奇的map-reduce操作

linux 四剑客 find 、grep、sed、awk整理

linux 四剑客 find .grep.sed.awk整理 find 主要是用于查找Linux 操作系统的某个文件.目录所在路径,查找出满足条件的文件或者目录的路径 find / -name *.rpm -type d -- ###/:表示是在根目录下进行查找 ###-type:查找的类型,d是目录,f是普通文件 find / -name "con*.log" -exec cp {} /tmp/ \; ####基于 find 查找 Linux 系统以.log 结尾,同时名称以 con

Linux文本三剑客超详细教程---grep、sed、awk

awk.grep.sed是linux操作文本的三大利器,合称文本三剑客,也是必须掌握的linux命令之一.三者的功能都是处理文本,但侧重点各不相同,其中属awk功能最强大,但也最复杂.grep更适合单纯的查找或匹配文本,sed更适合编辑匹配到的文本,awk更适合格式化文本,对文本进行较复杂格式处理. 1.grep 1.1 什么是grep和egrep Linux系统中grep命令是一种强大的文本搜索工具,它能使用正则表达式搜索文本,并把匹配的行打印出来(匹配到的标红).grep全称是Global