日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > linux >内容正文

linux

10个linux awk文本处理经典案例,关于AWK的10个经典案例

發布時間:2025/4/5 linux 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 10个linux awk文本处理经典案例,关于AWK的10个经典案例 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

awk是Linux系統下一個處理文本的編程語言工具,能用簡短的程序處理標準輸入或文件、數據排序、計算以及生成報表等等,應用非常廣泛。

基本的命令語法:awk option 'pattern {action}' file

下面根據工作經驗總結了10個實用的awk案例,面試筆試題也經常會出,供朋友們參考學習。

1、分析訪問日志(Nginx為例)

日志格式:

'$remote_addr - $remote_user [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent" "$http_x_forwarded_for"'

統計訪問IP次數:

# awk '{a[$1]++}END{for(v in a)print v,a[v]}' access.log

統計訪問訪問大于100次的IP:

# awk '{a[$1]++}END{for(v ina){if(a[v]>100)print v,a[v]}}' access.log

統計訪問IP次數并排序取前10:

# awk '{a[$1]++}END{for(v in a)print v,a[v]|"sort -k2 -nr |head -10"}' access.log

統計時間段訪問最多的IP:

# awk'$4>="[02/Jan/2017:00:02:00" &&$4< ="[02/Jan/2017:00:03:00"{a[$1]++}END{for(v in a)print v,a[v]}'access.log

統計上一分鐘訪問量:

# date=$(date -d '-1 minute'+%d/%d/%Y:%H:%M)

# awk -vdate=$date '$4~date{c++}END{printc}' access.log

統計訪問最多的10個頁面:

# awk '{a[$7]++}END{for(vin a)print v,a[v]|"sort -k1 -nr|head -n10"}' access.log

統計每個URL數量和返回內容總大小:

# awk '{a[$7]++;size[$7]+=$10}END{for(v ina)print a[v],v,size[v]}' access.log

統計每個IP訪問狀態碼數量:

# awk '{a[$1" "$9]++}END{for(v ina)print v,a[v]}' access.log

統計訪問IP是404狀態次數:

# awk '{if($9~/404/)a[$1" "$9]++}END{for(i in a)print v,a[v]}' access.log

2、兩個文件差異對比

文件內容:

# seq 1 5 > a

# seq 3 7 > b

找出b文件在a文件相同記錄:

方法1:

# awk 'FNR==NR{a[$0];next}{if($0 in a)print $0}' a b

3

4

5

# awk 'FNR==NR{a[$0];next}{if($0 in a)print FILENAME,$0}' a b

b 3

b 4

b 5

# awk 'FNR==NR{a[$0]}NR>FNR{if($0 ina)print $0}' a b

3

4

5

# awk 'FNR==NR{a[$0]=1;next}(a[$0]==1)' a b # a[$0]是通過b文件每行獲取值,如果是1說明有

# awk 'FNR==NR{a[$0]=1;next}{if(a[$0]==1)print}' a b

3

4

5

方法2:

# awk 'FILENAME=="a"{a[$0]}FILENAME=="b"{if($0 in a)print $0}' a b

3

4

5

方法3:

# awk 'ARGIND==1{a[$0]=1}ARGIND==2 && a[$0]==1' a b

3

4

5

找出b文件在a文件不同記錄:

方法1:

# awk 'FNR==NR{a[$0];next}!($0 in a)' a b

6

7

# awk 'FNR==NR{a[$0]=1;next}(a[$0]!=1)' a b

# awk'FNR==NR{a[$0]=1;next}{if(a[$0]!=1)print}' a b

6

7

方法2:

# awk'FILENAME=="a"{a[$0]=1}FILENAME=="b" && a[$0]!=1' a b

方法3:

# awk 'ARGIND==1{a[$0]=1}ARGIND==2 && a[$0]!=1' a b

3、合并兩個文件

文件內容:

# cat a

zhangsan 20

lisi 23

wangwu 29

# cat b

zhangsan man

lisi woman

wangwu man

將a文件合并到b文件:

方法1:

# awk 'FNR==NR{a[$1]=$0;next}{print a[$1],$2}' a b

zhangsan 20 man

lisi 23 woman

wangwu 29 man

方法2:

# awk 'FNR==NR{a[$1]=$0}NR>FNR{print a[$1],$2}' a b

zhangsan 20 man

lisi 23 woman

wangwu 29 man

將a文件相同IP的服務名合并:

# cat a

192.168.1.1: httpd

192.168.1.1: tomcat

192.168.1.2: httpd

192.168.1.2: postfix

192.168.1.3: mysqld

192.168.1.4: httpd

# awk 'BEGIN{FS=":";OFS=":"}{a[$1]=a[$1] $2}END{for(v in a)print v,a[v]}' a

192.168.1.4: httpd

192.168.1.1: httpd tomcat

192.168.1.2: httpd postfix

192.168.1.3: mysqld

解讀:

數組a存儲是$1=a[$1] $2,第一個a[$1]是以第一個字段為下標,值是a[$1] $2,也就是$1=a[$1] $2,值的a[$1]是用第一個字段為下標獲取對應的值,但第一次數組a還沒有元素,那么a[$1]是空值,此時數組存儲是192.168.1.1=httpd,再遇到192.168.1.1時,a[$1]通過第一字段下標獲得上次數組的httpd,把當前處理的行第二個字段放到上一次同下標的值后面,作為下標192.168.1.1的新值。此時數組存儲是192.168.1.1=httpd tomcat。每次遇到相同的下標(第一個字段)就會獲取上次這個下標對應的值與當前字段并作為此下標的新值。

4、將第一列合并到一行

# cat file

1 2 3

4 5 6

7 8 9

# awk '{for(i=1;i< =NF;i++)a[i]=a[i]$i" "}END{for(vin a)print a[v]}' file

1 4 7

2 5 8

3 6 9

解讀:

for循環是遍歷每行的字段,NF等于3,循環3次。

讀取第一行時:

第一個字段:a[1]=a[1]1" " 值a[1]還未定義數組,下標也獲取不到對應的值,所以為空,因此a[1]=1 。

第二個字段:a[2]=a[2]2" " 值a[2]數組a已經定義,但沒有2這個下標,也獲取不到對應的值,為空,因此a[2]=2 。

第三個字段:a[3]=a[3]3" " 值a[2]與上面一樣,為空,a[3]=3 。

讀取第二行時:

第一個字段:a[1]=a[1]4" " 值a[2]獲取數組a的2為下標對應的值,上面已經有這個下標了,對應的值是1,因此a[1]=1 4

第二個字段:a[2]=a[2]5" " 同上,a[2]=2 5

第三個字段:a[3]=a[3]6" " 同上,a[2]=3 6

讀取第三行時處理方式同上,數組最后還是三個下標,分別是1=1 4 7,2=2 5 8,3=36 9。最后for循環輸出所有下標值。

5、字符串拆分

字符串拆分:

方法1:

# echo "hello" |awk -F '''{for(i=1;i< =NF;i++)print $i}'

h

e

l

l

o

方法2:

# echo "hello" |awk '{split($0,a,"''");for(v in a)print a[v]}'

l

o

h

e

l

6、統計出現的次數

統計字符串中每個字母出現的次數:

# echo "a.b.c,c.d.e" |awk -F'[.,]' '{for(i=1;i< =NF;i++)a[$i]++}END{for(v in a)print v,a[v]}'

a 1

b 1

c 2

d 1

e 1

7、費用統計

得出每個員工出差總費用及次數:

# cat a

zhangsan 8000 1

zhangsan 5000 1

lisi 1000 1

lisi 2000 1

wangwu 1500 1

zhaoliu 6000 1

zhaoliu 2000 1

zhaoliu 3000 1

# awk '{name[$1]++;cost[$1]+=$2;number[$1]+=$3}END{for(v in name)print v,cost[v],number[v]}' a

zhangsan 5000 1

lisi 3000 2

wangwu 1500 1

zhaoliu 11000 3

8、獲取某列數字最大數

# cat a

a b 1

c d 2

e f 3

g h 3

i j 2

獲取第三字段最大值:

# awk 'BEGIN{max=0}{if($3>max)max=$3}END{print max}' a

3

打印第三字段最大行:

# awk 'BEGIN{max=0}{a[$0]=$3;if($3>max)max=$3}END{for(v in a)if(a[v]==max)print v}'a

g h 3

e f 3

9、去除文本第一行和最后一行

# seq 5 |awk'NR>2{print s}{s=$0}'

2

3

4

解讀:

讀取第一行,NR=1,不執行print s,s=1

讀取第二行,NR=2,不執行print s,s=2 (大于為真)

讀取第三行,NR=3,執行print s,此時s是上一次p賦值內容2,s=3

最后一行,執行print s,打印倒數第二行,s=最后一行

10、獲取Nginx upstream塊內后端IP和端口

# cat a

upstream example-servers1 {

server 127.0.0.1:80 weight=1 max_fails=2fail_timeout=30s;

}

upstream example-servers2 {

server 127.0.0.1:80 weight=1 max_fails=2fail_timeout=30s;

server 127.0.0.1:82 backup;

}

# awk '/example-servers1/,/}/{if(NR>2){print s}{s=$2}}' a

127.0.0.1:80

# awk '/example-servers1/,/}/{if(i>1)print s;s=$2;i++}' a

# awk '/example-servers1/,/}/{if(i>1){print s}{s=$2;i++}}' a

127.0.0.1:80

解讀:

讀取第一行,i初始值為0,0>1為假,不執行print s,x=example-servers1,i=1

讀取第二行,i=1,1>1為假,不執行prints,s=127.0.0.1:80,i=2

讀取第三行,i=2,2>1為真,執行prints,此時s是上一次s賦值內容127.0.0.1:80,i=3

最后一行,執行print s,打印倒數第二行,s=最后一行。

這種方式與上面一樣,只是用i++作為計數器。

掌握這些awk用法及思路,我相信你在Linux下處理文本無敵了!

總結

以上是生活随笔為你收集整理的10个linux awk文本处理经典案例,关于AWK的10个经典案例的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。