linux&Perl&R  

Linux删除重复行

文本处理时,经常要删除重复行,下面是三种方法

第一,用sort+uniq,注意,单纯uniq是不行的。
sort -n test.txt | uniq


第二,用sort+awk命令,注意,单纯awk同样不行,原因同上。

sort -n $file | awk '{if($0!=line)print; line=$0}'
 

第三,用sort+sed命令,同样需要sort命令先排序。

sort -n $file | sed '$!N; /^\(.*\)\n\1$/!P; D'

Shell脚本

[python] view plaincopyprint?

  1. # !/bin/sh   

  2. file='test.txt'    

  3. sort -n $file | uniq    

  4. sort -n $file | awk '{if($0!=line)print; line=$0}'    

  5. sort -n $file | sed '$!N; /^\(.*\)\n\1$/!P; D'  

测试文件:

yanggang@barry$ cat test.txt
aaa
bbbbb
ccccc
123
aaaaa
123
bbb
aaa
执行结果:

yanggang@barry$ ./diffRow.sh
aaa
aaaaa
bbb
bbbbb
ccccc
123

via http://blog.csdn.net/sunboy_2050/article/details/6926325

2013-04-03 uniq

评论

©linux&Perl&R Powered by LOFTER