Linux-四剑客-find-awk-grep-sed解释----未完结版

Linux的四剑客
作者:张首富
2018/07/15
[TOC]

find 查找文件或目录

说明

find - search for files in a directory hierarchy 搜索目录层次结构中的文件
用来在指定目录下面查找文件或目录,任何位于参数之前的字符串都被视为想在那个目录下面查找

命令格式:

    `find 目录 选项 参数`

命令选项

-type指定要查找的文件类型。

d 目录
f 文件
l 链接文件
实例:

[[email protected] tmp]# touch 1.txt 2.txt
[[email protected] tmp]# mkdir a b
[[email protected] tmp]# find /tmp/ -type f
/tmp/1.txt
/tmp/2.txt
[[email protected] tmp]# find /tmp/ -type d
/tmp/
/tmp/.ICE-unix
/tmp/b
/tmp/a

-name按照文件名字查找

支持正则匹配,但是要加""

[[email protected] tmp]# find /tmp/ -name *.txt  #报错
find: paths must precede expression: 2.txt
Usage: find [-H] [-L] [-P] [-Olevel] [-D help|tree|search|stat|rates|opt|exec] [path...] [expression]
[[email protected] tmp]# find /tmp/ -name "*.txt"
/tmp/1.txt
/tmp/2.txt

-maxdepth 查找目录的级数

查找几层目录,/是第一级目录/tmp/就属于第二级目录

[[email protected] /]# find / -maxdepth 2 -name 1.txt
/tmp/1.txt
[[email protected] /]# find / -maxdepth 3 -name 1.txt
/tmp/test/1.txt
/tmp/1.txt

-size 按文件大小查找

后面需要跟单位 c表示字节
k
M
+x 代表大小大于X的
-x 代表大小小于X的
x 代表大小刚好等于X的

[[email protected] /]# dd  if=/dev/zero of\=/tmp/find_test.txt count\=1 bs\=10M
1+0 records in
1+0 records out
10485760 bytes (10 MB) copied, 0.00732409 s, 1.4 GB/s
[[email protected] /]# dd  if=/dev/zero of\=/tmp/find_test_max.txt count\=1 bs\=11M
1+0 records in
1+0 records out
11534336 bytes (12 MB) copied, 0.00994042 s, 1.2 GB/s
[[email protected] /]# dd  if=/dev/zero of\=/tmp/find_test_min.txt count\=1 bs\=9M
1+0 records in
1+0 records out
9437184 bytes (9.4 MB) copied, 0.0620404 s, 152 MB/s
[[email protected] /]# find /tmp -size +10M
/tmp/find_test_max.txt
[[email protected] /]# find /tmp -size -10M
/tmp
/tmp/.ICE-unix
/tmp/find_test_min.txt
[[email protected] /]# find /tmp -size 10M
/tmp/find_test.txt

#如果查找大于6M小于9M的文件可以省略其中的-a选项
[[email protected] tmp]# find /tmp/ -size +6M -a -size -9M
/tmp/find_test_2.txt
/tmp/find_test_3.txt
[[email protected] tmp]# find /tmp/ -size +6M  -size -9M
/tmp/find_test_2.txt
/tmp/find_test_3.txt

#但如果想取小于6M和大于9M的文件,中间的-o选项就不能省去
[[email protected] tmp]# find /tmp/ -size -6M -o -size +9M
/tmp/
/tmp/.ICE-unix
/tmp/find_test_1.txt

-mtime(Modify时间)

按照修改时间来查找,单位为天数,+ - 默认和上述一样

[[email protected] tmp]# touch -m -d ‘2018-07-07‘ find_test.txt
[[email protected] tmp]# touch -m -d ‘2018-07-13‘ find_test_max.txt
[[email protected] tmp]# find /tmp -mtime +2
/tmp/find_test.txt
[[email protected] tmp]# find /tmp -mtime -2
/tmp
/tmp/.ICE-unix
/tmp/find_test_max.txt
/tmp/find_test_min.txt

-atime(Access时间)

按照访问时间来查找
-ctime
按照更改时间来查找(Change时间)

-perm按照权限来查找

后面必须跟数字权限

[[email protected] tmp]# chmod 777 find_test.txt
[[email protected] tmp]# find /tmp -perm 0644
/tmp/find_test_max.txt
/tmp/find_test_min.txt
[[email protected] tmp]# find /tmp -perm 0777
/tmp/find_test.txt

-user 按照文件属主来查询

[[email protected] tmp]# chown zsf find_test.txt
[[email protected] tmp]# find /tmp/ -user zsf
/tmp/find_test.txt
[[email protected] tmp]# ll
total 30720
-rw-r--r-- 1 root zsf  11534336 Jul 13  2018 find_test_max.txt
-rw-r--r-- 1 root root  9437184 Jul 10 19:45 find_test_min.txt
-rwxrwxrwx 1 zsf  root 10485760 Jul  7 00:00 find_test.txt

-nouser 查找无效属主的文件,属主不存在/etc/passwd里面的,系统里面不允许有这类文件

[[email protected] tmp]# userdel zsf
[[email protected] tmp]# find /tmp/ -nouser
/tmp/find_test.txt

-group 按照文件属组来查询

[[email protected] tmp]# chown :zsf find_test_max.txt
[[email protected] tmp]# find /tmp/ -group zsf
/tmp/find_test_max.txt
[[email protected] tmp]# ll
total 30720
-rw-r--r-- 1 root zsf  11534336 Jul 13  2018 find_test_max.txt
-rw-r--r-- 1 root root  9437184 Jul 10 19:45 find_test_min.txt
-rwxrwxrwx 1 zsf  root 10485760 Jul  7 00:00 find_test.txt

-nogroup 查找无效属组的文件,系统中不允许存在

-delete 查到之后删除(比较危险)

取反

环境和2.1.3.15相同
不属于zsf这个用户的或者权限是777的

[[email protected] tmp]# find /tmp/ ! -user zsf -o -perm 777
/tmp/
/tmp/1.sh
/tmp/3.sh
/tmp/4.sh

-a and 取交集

[[email protected] tmp]# chown zsf 1.sh
[[email protected] tmp]# chown zsf 2.sh
[[email protected] tmp]# chmod 777 1.sh
[[email protected] tmp]# ll
total 0
-rwxrwxrwx 1 zsf  root 0 Jul 10 20:42 1.sh
-rw-r--r-- 1 zsf  root 0 Jul 10 20:39 2.sh
-rw-r--r-- 1 root root 0 Jul 10 20:39 3.sh
-rw-r--r-- 1 root root 0 Jul 10 20:42 4.sh
找属于zsf并且权限是777的文件
[[email protected] tmp]# find /tmp/ -user zsf -a -perm 777
/tmp/1.sh

-o or 取并集

环境和2.1.3.15相同

[[email protected] tmp]# find /tmp/ -user zsf -o -perm 777
/tmp/2.sh
/tmp/1.sh

-exec 理解为传参

find命令对匹配的文件执行该参数所给出的shell命令。相应命令的形式为‘command‘ { } \;,注意{ }\;之间的空格。


[[email protected]_50 tmp]# touch 123
[[email protected]_50 tmp]# ll
total 0
-rw-r--r-- 1 root root 0 Jul 25 00:16 123
[[email protected]_50 tmp]# find /tmp -name 123 -type f -exec mv {} 321 \;
[[email protected]_50 tmp]# ls
321

-exec和加 | xarge的区别

使用exec的时候是边查找边执行
| xargefind管道前处理完事之后,才会传递到后面

||xarge的区别

| 是把前面的执行结果当做文本来处理
|xargs 是把前面的执行结果当做文件名来处理

grep查找过滤

命令说明

grepegrepfgrep的作用大致相同,都是查找出匹配的行,然后打印出来。

命令格式

grep 选项 “要过滤的字符串/正则表达式” 对象

命令选项

-i 不区分字符串大小写

[[email protected] tmp]# grep "qwe" grep_file.txt
qweqwe
[[email protected] tmp]# grep "QWE" grep_file.txt
QWEQWE
[[email protected] tmp]# grep -i "QWE" grep_file.txt
QWEQWE
qweqwe

-v 取反,输出不匹配字符串的行

[[email protected] tmp]# grep -i -v "QWE" grep_file.txt
asdasdasd

-A num 显示匹配到结果的行,并显示他后面的num行

[[email protected] /]# grep -A "^ntp" /etc/passwd
grep: ^ntp: invalid context length argument   #报错是因为-A选项之后没有跟参数
[[email protected] /]# grep -A 3 "sshd" /etc/passwd
sshd:x:74:74:Privilege-separated SSH:/var/empty/sshd:/sbin/nologin
tcpdump:x:72:72::/:/sbin/nologin
zsf:x:500:500::/home/zsf:/bin/bash
rsync:x:501:501::/home/rsync:/sbin/nologin

-B num显示匹配到结果的行,并显示他前面的num行

[[email protected] tmp]# grep -B 3 "sshd" /etc/passwd
ntp:x:38:38::/etc/ntp:/sbin/nologin
saslauth:x:499:76:Saslauthd user:/var/empty/saslauth:/sbin/nologin
postfix:x:89:89::/var/spool/postfix:/sbin/nologin
sshd:x:74:74:Privilege-separated SSH:/var/empty/sshd:/sbin/nologin

-C num 显示匹配到结果的行,并显示他前、后面的num行

[[email protected] tmp]# grep -C 3 "sshd" /etc/passwd
ntp:x:38:38::/etc/ntp:/sbin/nologin
saslauth:x:499:76:Saslauthd user:/var/empty/saslauth:/sbin/nologin
postfix:x:89:89::/var/spool/postfix:/sbin/nologin
sshd:x:74:74:Privilege-separated SSH:/var/empty/sshd:/sbin/nologin
tcpdump:x:72:72::/:/sbin/nologin
zsf:x:500:500::/home/zsf:/bin/bash
rsync:x:501:501::/home/rsync:/sbin/nologin

-E 相当于egrep,可以多条件匹配

[[email protected] tmp]# grep -E "root|rsync|zsf" /etc/passwd
root:x:0:0:root:/root:/bin/bash
operator:x:11:0:operator:/root:/sbin/nologin
zsf:x:500:500::/home/zsf:/bin/bash
rsync:x:501:501::/home/rsync:/sbin/nologin
[[email protected] tmp]# grep  "root|rsync|zsf" /etc/passwd
#如果不加-E选项,他就会认为你要查找引号里面整体的字符串,所以没有匹配到的结果
[[email protected] tmp]# egrep  "root|rsync|zsf" /etc/passwd
root:x:0:0:root:/root:/bin/bash
operator:x:11:0:operator:/root:/sbin/nologin
zsf:x:500:500::/home/zsf:/bin/bash
rsync:x:501:501::/home/rsync:/sbin/nologin

. `匹配单个字符

[[email protected] tmp]# cat >grep_file.txt <<1
> zsdf
> zaf
> zef
> 1
[[email protected] tmp]# grep "^z.f$" grep_file.txt
zaf
zef

* 代表任意字符,一般配合.使用

[[email protected] tmp]# grep "^z.*f$" grep_file.txt
zsdf
zaf
zef

###\&lt;word 查找以word字符串开头的单词,所在的行

[[email protected]_50 tmp]# grep "\<root" 1.txt
root123
123 root123 123
root
这个\是转义字符,\<root 查找只要这一样内有一个但是是以root开头的就行,默认一个空格里面的就是一个单词

word\&gt;查找以word字符串结束的单词,所在的行

[[email protected]_50 tmp]# grep "root\>" 1.txt
dasdas 123root dasdas
root

###\&lt;word\&gt;查找包括word这个单词的行

[[email protected]_50 tmp]# grep "\<root\>" 1.txt
root
dasdas root dasdas

x\{M\} 重复字符x,M

[[email protected] tmp]# grep "a\{2}" grep_file.txt
aasssasas
aassssaa

x\{M,\} 重复字符x,最少M

x\{M,n\} 重复字符x,最少M次,最多n

[[email protected] tmp]# grep "s\{2,5}" grep_file.txt
aasssasas
aassssaa

[] 匹配一个指定范围的字符,

[[email protected] tmp]# cat >grep_file.txt <<EOF
> 123a123
> 123b123
> 123f123
> EOF
[[email protected] tmp]# grep "[a,b]" grep_file.txt
123a123
123b123

###[^ ] 匹配一个不存在这个范围内的字符

grep的宗旨:显示一切的匹配行,这句话的是理解这个选项的重中之重
测试使用的原文件
[[email protected]_50 tmp]# cat test.txt
aabbcc
aaeebb
aaffgg
bbccee
abcc
aaaaaa
bbb

####测试1:

[[email protected]_50 tmp]# grep  [^a] test.txt
aabbcc          匹配了b和c
aaeebb          匹配了e和b
aaffgg          匹配了f和g
bbccee          匹配了b和c和e
abcc            匹配了b和c
bbbbbb          匹配了b
我们发现这时候aabbcc,aaeebb都出来了,并没有过滤a这个字符啊,其实已经过滤掉了a,grep的核心是“显示所有匹配的行”。所以几行显示出来并不是应为匹配了aa而是匹配了后面的bbcc,所以这一行才会显示出来。
[[email protected]_50 tmp]# grep  [^abc] test.txt
aaeebb                      匹配了e
aaffgg                      匹配了fg
bbccee                      匹配了e

sed 流编辑器

命令说明

sed - stream editor for filtering and transforming text
用于过滤和转换文本的流编辑器
命令格式
sed [OPTION]... {script-only-if-no-other-script} [input-file]...
sed 选项 命令 文件

命令选项

-e 多点编辑,每个条件前面都必须加-e选项,不加的那个就不执行

在一个sed里面同时执行多种操作
一条sed命令,删除第二行,和在第5行后面增加一串字符

[[email protected] tmp]# sed -e "2d" -e "5a test" 1.txt
1
3
4
5
test

-n 取消默认输出

sed命令默认的是把文件的每一行都输出到屏幕上。匹配到的行输出两次,我们用-n取消默认输出

[[email protected] tmp]# seq 5 >1.txt
[[email protected] tmp]# sed "/1/p" 1.txt
1
1
2
3
4
5
[[email protected] tmp]# sed -n  "/1/p" 1.txt
1

-i 直接对文件操作,最后放到最后使用

[[email protected] tmp]# sed "s#1#a#gp" 1.txt
a
a
2
[[email protected] tmp]# cat 1.txt
1
2
[[email protected] tmp]# sed -in "s#1#a#g" 1.txt
[[email protected] tmp]# cat 1.txt
a
2

替换文件文件并备份

[[email protected]_50 tmp]#sed -i.bak "1d" 1.txt
[[email protected]_50 tmp]#ll -d 1.txt 1.txt.bak
-rw-r--r-- 1 root root 0 Dec 12 22:01 1.txt
-rw-r--r-- 1 root root 0 Dec 12 05:05 1.txt.bak

-r 支持正则表达式

动作说明

[n1,[n2]] function(功能)
n1,n2不一定存在,一般代表(选择进行动作的行数)

功能

a 新增,在匹配到的行后面插入

a的后面可以接字符串,这些字符串会在新的一行(目的的下一行)出现

[[email protected] tmp]# sed "2,4a asdasd" 1.txt #在第2,3,4行后面增加一行asdasd内容
1
2
asdasd
3
asdasd
4
asdasd
5

[[email protected] tmp]# sed "/3/a dasda" 1.txt  #在匹配到的行后面增加
1
2
3
dasda
4
5

c 取代

c后面可以接字符串,这些字符串会取代目标行的内容

[[email protected] tmp]# sed "2,4c asdasd" 1.txt  #一行内容取代多行
1
asdasd
5
[[email protected] tmp]# sed "2,4c asdasd\n31312312\ndd33" 1.txt  #多行取代多行,取代行后面要加\n来换行
1
asdasd
31312312
dd33
5
[[email protected] tmp]# sed "/3/c dasda" 1.txt  #取代匹配到的行
1
2
dasda
4
5

d 删除

d 一般后面不接内容,删除目标

[[email protected] tmp]# sed "/3/d" 1.txt   #删除匹配到的行
1
2
4
5
[[email protected] tmp]# sed "2,4d" 1.txt  #删除指定位置的行
1
5

p 打印

选择将那个数据输出,一般配合-n(安静)使用

[[email protected] tmp]# sed -n "s#2#a#gp" 1.txt
a

s 替换

可以直接进行取代的工作。通常用法s#原内容#替换成内容#g #就是一个分隔符,可以用任意字符替换

[[email protected] tmp]# sed -n "s#2#a#gp" 1.txt   #分隔字符串是什么没影响
a
[[email protected] tmp]# sed -n "s/2/a/gp" 1.txt
a

i 插入,在匹配到的行前面插入

[[email protected] tmp]# sed "/3/i dadas" 1.txt
1
2
dadas
3
4
5

N 读取/附加下一行输入到模式空间(一次性读取两行)

sed = 参数有显示行号的功能,但是行号和内容不在一行,我们想让他在一行,sed "N"帮我们解决了这个问题。

[[email protected]_50 tmp]# sed  ‘N;s#\n#:#‘ 3.txt
1 10:2 11
3 12:4 13
5 14:6 15
7 16:8 17

这个里面必须要把\n给替换掉,如果不替换掉,你会发现他的第二行没有给第一行一块读取啊,可能就会认为linux欺骗了你,实际Linux是不会欺骗你的。没在一行是因为 输出的时候有一个\n又把第二行给换下去了。
而且替换的时候还不能加g全局替换,如果加g的话他会把所有的内容都变成1行,而不是只替换第一个了

= 显示行号,一般配合 N使用

[[email protected]_50 tmp]# sed = nginx.txt |  sed ‘N;s/\n/:/‘
1:a
2:b
3:c
4:d
5:e
6:f
7:g

awk 文本分析工具

命令说明

awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据的分析并生成报告时,显得尤为强大。简单的来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分在进行各种分析处理。

命令格式

awk ‘{pattern + action}‘ {filenames}
pattern表示awk在数据中查找的内容,
action 表示在查找到匹配内容的时候干什么
一般,wak是以文件的一行为处理单位的。awk每接收文件的一行,然后执行相应的命令,来处理

awk的三种调用方式

命令行方式

awk [-F field-separator] ‘commands‘ input-file(s)
其中,commands 是真正awk命令,[-F域分隔符]是可选的。 input-file(s) 是待处理的文件。
在awk中,文件的每一行中,由域分隔符分开的每一项称为一个域。通常,在不指名-F域分隔符的情况下,默认的域分隔符是空格。

shell脚本方式

将所有的awk命令插入一个文件,并使awk程序可执行,然后awk命令解释器作为脚本的首行,一遍通过键入脚本名称来调用。
相当于shell脚本首行的:#!/bin/sh
可以换成:#!/bin/awk
将所有的awk命令插入一个单独的文件,然后调用
awk -f awk-script-file input-file(s)
其中,-f选项加载awk-script-file中的awk脚本,input-file(s)跟上面的是一样的。

命令选项、内置变量

-F 指定分隔符,默认是以空格分隔

[[email protected]_50 tmp]# cat >>awk_test.txt<<EOF
> 123:321 456 789:987
> EOF
[[email protected]_50 tmp]# awk ‘{print ‘ awk_test.txt
123:321
[[email protected]_50 tmp]# awk -F ":" ‘{print [[email protected]_50 tmp]# cat >>awk_test.txt<<EOF
> 123:321 456 789:987
> EOF
[[email protected]_50 tmp]# awk ‘{print }‘ awk_test.txt
123}

$0,$1.........匹配到的第几块域

$0 代表匹配到的所有域,整行
$1 代表匹配到的第一个域,
$2 代表匹配到的第二个域

[[email protected]_50 tmp]# cat awk_test.txt
123:321 456 789:987
[[email protected]_50 tmp]# awk -F ":" ‘{print ‘ awk_test.txt
123:321 456 789:987
[[email protected]_50 tmp]# awk -F ":" ‘{print [[email protected]_50 tmp]# cat awk_test.txt
123:321 456 789:987
[[email protected]_50 tmp]# awk -F ":" ‘{print }‘ awk_test.txt
123
[[email protected]_50 tmp]# awk -F ":" ‘{print }‘ awk_test.txt
321 456 789}

BEGIN 头部,后面跟‘{print "头部信息"}‘,给输出加上头部

[[email protected]_50 tmp]# awk -F ":" ‘BEGIN {print "user_name\tHome_directory"  {print [[email protected]_50 tmp]# awk -F ":" ‘BEGIN {print "user_name\tHome_directory""\t"}‘  /etc/passwd
user_name    Home_directory
root    /root
bin    /bin
daemon    /sbin
adm    /var/adm
lp    /var/spool/lpd}

END 尾部,在输出的最后一行加入内容,后面跟‘{print "尾部信息"}‘

[[email protected]_50 tmp]# awk -F ":" ‘BEGIN {print "开始" {print [[email protected]_50 tmp]# awk -F ":" ‘BEGIN {print "开始"} END {print "结束"}‘ awk_test.txt
开始
123
结束}

搜索匹配字符串的行“和sed类似”

#查找出来包含root的行,并把它登录的shell显示出来
[[email protected]_50 tmp]# awk -F : ‘/root/ {print $7}‘ /etc/passwd
/bin/bash
/sbin/nologin
#匹配以root开头的用户,并显示他的登录shell
[[email protected]_50 tmp]# awk -F : ‘/^root/ {print $7}‘ /etc/passwd
/bin/bash
#查找出不能登录的系统的用户,只显示文件名
[[email protected]_50 tmp]# awk -F : ‘/nologin$/ {print $1}‘ /etc/passwd
bin
daemon
adm

awk的内置变量

awk有许多内置变量用来设置环境信息的,这些变量可以被改变
ARGC 命令行参数个数
ARGV
ENVIRON 支持队列中系统环境变量的使用
FILENAME awk浏览的文件名(操作的文件名)

[[email protected]_50 ~]# awk ‘BEGIN{FS=":";OFS="$" {print [[email protected]_50 ~]# awk ‘BEGIN{FS=":";OFS="$","\t"FILENAME}‘ /etc/passwd| head -3
root    /etc/passwd
bin    /etc/passwd
daemon    /etc/passwd}

FNR 浏览文件的记录数
FS 设置输入域分隔符,等价于命令-F 选项(分隔符)

[[email protected]_50 ~]# awk ‘BEGIN{FS=":"} {print $1}‘ /etc/passwd| head -3
root
bin
daemon

NF 浏览记录的域的个数(列的个数)
NR 已读的记录数,记录行号(行)
OFS 输出域分隔符 (输入分隔符)

[[email protected]_50 ~]# awk ‘BEGIN{FS=":";OFS="$"} {print $1,$2}‘ /etc/passwd| head -3
root$x
bin$x
daemon$x

ORS 输出记录分隔符
RS 控制记录分隔符
printprintf
虽然这两个都是输出的意思,print是正常输出,printf可以带格式的输出
其中print函数的参数可以是变量、数值或字符串。字符串必须用双引号,参数用逗号分隔,如果没有逗号,参数就串联在一起而无法区分。
printf函数,其用法和C语言的printf基本像是。格式化复杂化输出

[[email protected]_50 tmp]# awk ‘{print "filename:" FILENAME ",Linenumber" NR "file_link" $0}‘ /etc/passwd | head -2
filename:/etc/passwd,Linenumber1file_linkroot:x:0:0:root:/root:/bin/bash
filename:/etc/passwd,Linenumber2file_linkbin:x:1:1:bin:/bin:/sbin/nologin

printf标准的格式化输出。

[[email protected]_50 tmp]# awk ‘{printf("filename:%s;Linenumber:%d;file_line:%s\n",FILENAME,NR,$0)}‘ /etc/passwd | head -2
filename:/etc/passwd;Linenumber:1;file_line:root:x:0:0:root:/root:/bin/bash
filename:/etc/passwd;Linenumber:2;file_line:bin:x:1:1:bin:/bin:/sbin/nologin

gsub函数,替换函数相当于sed "s//g"

[[email protected]_50 tmp]# cat 1.txt
i am  oldboy,dasasd 123
[[email protected]_50 tmp]# awk ‘gsub(/,/," ",$3)‘ 1.txt | awk ‘{print $3,$5}‘
oldboy 123

sub函数,相当于sed "s//",只替换匹配到的第一次

把第一个域里面的内容替换成第二个
有一个文本文件data.test的内容如下:

0001|20081223efskjfdj|EREADFASDLKJCV
0002|20081208djfksdaa|JDKFJALSDJFsddf
0003|20081208efskjfdj|EREADFASDLKJCV
0004|20081211djfksdaa1234|JDKFJALSDJFsddf

以‘|‘为分隔, 现要将第二个域字母前的数字去掉,其他地方都不变, 输出为:

0001|efskjfdj|EREADFASDLKJCV
0002|djfksdaa|JDKFJALSDJFsddf
0003|efskjfdj|EREADFASDLKJCV
0004|djfksdaa1234|JDKFJALSDJFsddf

解决办法:

[[email protected]_50 tmp]# awk -F "|" ‘BEGIN{OFS="|";}sub(/[0-9]+/,"",$2)‘ 1.txt
0001|efskjfdj|EREADFASDLKJCV
0002|djfksdaa|JDKFJALSDJFsddf
0003|efskjfdj|EREADFASDLKJCV
0004|djfksdaa1234|JDKFJALSDJFsddf

awk编程,变量和赋值

[[email protected]_50 tmp]# awk ‘BEGIN {count=0;print "count=0"} {count=count+1} END {print count}‘ /etc/passwd
count=0
24

举例

查找登录SHELL是/bin/bash的用户信息
方法一:

[[email protected]_50 ~]# awk -F‘:‘ ‘$NF=="/bin/bash"{print $0}‘ /etc/passwd
root:x:0:0:root:/root:/bin/bash
zsf:x:500:500::/home/zsf:/bin/bash

方法二:

[[email protected]_50 ~]# awk -F‘:‘ ‘/\/bin\/bash$/{print $0}‘ /etc/passwd
root:x:0:0:root:/root:/bin/bash
zsf:x:500:500::/home/zsf:/bin/bash

方法三:

[[email protected]_50 ~]# awk ‘BEGIN {shell="/bin/bash";FS=":"} $NF==shell {print $0}‘ /etc/passwd
root:x:0:0:root:/root:/bin/bash
zsf:x:500:500::/home/zsf:/bin/bash
### `-n` 显示匹配到行的行号,和`cat -n`选项意思一样

[[email protected] tmp]# grep -n "zsf" /etc/passwd
25:zsf:x:500:500::/home/zsf:/bin/bash


### 正则表达
#### `^str`   以什么字符串开头

[[email protected] tmp]# cat >grep_file.txt<<EOF

zsf12
12zsf12
12zsf
EOF
[[email protected] tmp]# grep "zsf" grep_file.txt
zsf12
12zsf12
12zsf
[[email protected] tmp]# grep "^zsf" grep_file.txt
zsf12

str$ 以什么字符串结尾

[[email protected] tmp]# grep "zsf$" grep_file.txt
12zsf

`

原文地址:http://blog.51cto.com/13447608/2151867

时间: 2024-10-28 19:17:21

Linux-四剑客-find-awk-grep-sed解释----未完结版的相关文章

linux 四剑客 find 、grep、sed、awk整理

linux 四剑客 find .grep.sed.awk整理 find 主要是用于查找Linux 操作系统的某个文件.目录所在路径,查找出满足条件的文件或者目录的路径 find / -name *.rpm -type d -- ###/:表示是在根目录下进行查找 ###-type:查找的类型,d是目录,f是普通文件 find / -name "con*.log" -exec cp {} /tmp/ \; ####基于 find 查找 Linux 系统以.log 结尾,同时名称以 con

linux四剑客-grep/find/sed/awk/详解-技术流ken

1.四剑客简介 相信接触过linux的大家应该都学过或者听过四剑客,即sed,grep,find,awk,有人对其望而生畏,有人对其爱不释手.参数太多,变化形式太多,使用超级灵活,让一部分人难以适从继而望而生畏,浅尝辄止即罢.有人熟练掌握,使其四剑客为己所用,在分析日志,分析文本,统计,批量修改中游刃有余,大大提高了工作效率.本篇博文将详细讲解四剑客的参数选项,以及使用案例,相信认真读完本篇博文你也可以使得四剑客真正为己所用. 2.四剑客之grep 1.几个概念 正则表达式:Regular Ex

Linux 命令之 linux 四剑客

Linux命令-- 四剑客 一:Linux命令 之 AWK 符号:^ 开头 $ 结尾 awk 是一种处理文本的语言,一个强大的文本分析命令! 1:提取文件中的每行的第二个 提取前文本中内容为  命令:cat 1.txt | awk '{print($2)}' 在 AWK 命令中,它将文本每列的部分当做一部分! 或着我们可以指定分隔符,指定提取某一部分! 我们以2为分隔符 命令:cat 1.txt | awk -F "2" '{print($2)}'  输出前三行 打印文件每行最后的字段

linux四剑客常用命令汇总

**四剑客常用命令汇总** 1.find find path -option [ -print ] [ -exec -ok command ] {} (find 查找路径 -type f/d -name ..... -size 1k/M -mtime/atime/ctime +-9 文件) find -type/-perm/-empty/ find /tmp -type f -name "*.tmp" -exec rm -rf '{}' \; find / -type f -name

Linux四剑客find/grep/awk/sed

find ./ -name "*txt" -maxdepth 1 -type f -mtime -2 -exec mv {} ./bbb.txt \; 这条命令表示找当前目录(-maxdepth 1,没这条是递归找当前目录的所有子目录)且是文件的(-type f)且两天以内创建的(-mtime -2,如果是+2表示两天前创建的,还可以-mmin以分钟为单位),且名字是匹配*txt(linux通配符和regex不同,linux自带的特殊字符 必须在""内)然后将这些文

Linux四剑客

有四个剑客,他们很厉害 Find 查询命令,就是find 1 2 usage: find [-H | -L | -P] [-EXdsx] [-f path] path ... [expression] find [-H | -L | -P] [-EXdsx] -f path [path ...] [expression] 常用参数 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 -name file #查找名为file的文件: -

awk,grep,sed三剑客

想学好"三剑客"最基本还是 正则表达式的熟练 正则表达式全集 日志的格式 2018/10/03 23:59:14.944 adapter.go:353: [warning] [SLOW_QUERY] cost_time:111.420169ms succ:true connection_id:0 txn_start_ts:403375431254540289 database: table_ids:[21] index_ids:[1] sql:select tab_id, is_ind

Linux 四剑客介绍和案例

正则表达式 Linux中文本处理工具:grep(只支持基础正则表达式)egrep(支持扩展正则表达式)sed (支持扩展正则表达式)awk (支持基础正则表达式支持扩展正则表达式) 基础正则表达式元字符: \ :转义字符,!,\n 等^ :匹配字符串开始的位置 如:^a:以a开头的字符$ :匹配字符串结束的位置 如:word$:以word结束的位置. : 匹配/n之外的任意的一个字符 如:go.d:匹配good .代表任意字符可以是多个 :匹配前面子表达式 0此或者多次 如:good :匹配go

SHELL编程四剑客练习--awk

awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大.简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行各种分析处理. awk有3个不同版本: awk.nawk和gawk,未作特别说明,一般指gawk,gawk 是 AWK 的 GNU 版本. awk是三个人名的缩写,他们是:Aho.(Peter)Weinberg和(Brain)Kernighan.正是这三个人创造了awk---一个 优秀的样式扫描与处理