`

@Marked-linux命令使用 cut/sort/uniq

 
阅读更多

我记得之前去XX网面试的那个面试题是这样的:有个apache.log 文件文本内容如下:
======================
[niewj@centSvr ~]$ cat apache.log         
http://www.163.com/1.html
http://www.sohu.com/index.html
http://www.sina.com/index.html
http://www.sohu.com/3.html
http://www.163.com/2.html
http://www.163.com/3.html
======================
要求统计出结果如下的内容:
======================
      3 
www.163.com
      1 
www.sina.com
      2 
www.sohu.com
======================
我找到方法了,当初请教各位大神,各位给的awk/sed什么的,把我吓呆
了,我用cut/sort/uniq实现了:如下:一步一步看走:
===========================================================
[niewj@centSvr ~]$ cut -d/ -f3 apache.log 
www.163.com
www.sohu.com
www.sina.com
www.sohu.com
www.163.com
www.163.com
[niewj@centSvr ~]$ cut -d/ -f3 apache.log |uniq -c
      1 
www.163.com
      1 
www.sohu.com
      1 
www.sina.com
      1 
www.sohu.com
      2 
www.163.com
[niewj@centSvr ~]$ cut -d/ -f3 apache.log |sort |uniq -c 
      3 
www.163.com
      1 
www.sina.com
      2 
www.sohu.com

 

结果便出来了。好强大,学了都是自个的!!!

0
4
分享到:
评论
3 楼 dotjar 2017-07-10  
awk -F "/" '{print $3}' test |sort|uniq -c|sort -nr
统计+技术+排序
2 楼 dotjar 2014-11-11  
bruce128 写道
awk -F '//' '{print $2}' apache.txt| awk -F '/' '{print $1}' | sort | uniq -c >> a.txt

1 楼 bruce128 2014-11-07  
awk -F '//' '{print $2}' apache.txt| awk -F '/' '{print $1}' | sort | uniq -c >> a.txt

相关推荐

Global site tag (gtag.js) - Google Analytics