用几条shell命令快速去重10G数据

  试想一下,如果有10G数据,或者更多;怎么才能够快速地去重呢?你会说将数据导入到数据库(mysql等)进行去重,或者用java写个程序进行去重,或者用Hadoop进行处理。如果是大量的数据要写入数据库也不是一件容易的事情,首先你需要开发一个程序将数据写入数据库,然后再用数据库的select distinct或者group by进行去重。如果是一次性的工作,这种方式显得就比较笨拙了。那么有没有更好的办法呢?下面记录一下我是怎么从10G数据里面迅速去重的。这里采用shell脚本的方式进行处理。如果您对shell脚本不熟悉,可以参考之前的文章我常用的那些linux命令,里面介绍了我常用的一些linux命令。也可以查看本博客的linux分类http://www.cnblogs.com/rwxwsblog/category/687866.html,基本上就是里面说到的一些知识点。好了,入正题。

  一、说明:

  1、这10G数据分布在七八个文件中

  2、文件编码格式为gb2312

  3、数据格式:

"ID","已采","已发","内容","PageUrl""1","1","1","====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||","http://www.xxx.com/"
"1","1","1","====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||","http://www.xxx.com/"
"1","1","1","====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||","http://www.xxx.com/"

  

  数据格式说明:

  • 上面是3行数据
  • 每行都是5个field
  • 每个field间用“,”隔开
  • 而需要的内容在第4个field(也就是内容这个field)
  • 内容field间会员用“====================”隔开

  要达到的效果:将会员信息提取出来并去重

  二、实现思路和测试:

  1、由于文件编码是gb2312编码,所以第一步是将文件编码转成utf-8编码

iconv -c -f gb2312 -t utf-8 test.txt > test2.txt

  这里我们用linux系统自带的iconv命令进行转换,-c的意思是将无法识别的字符直接忽略掉

  2、获取会员信息,由于是第4个field,因而我们只需要获取第四个field即可,这里采用awk命令获取

awk ‘BEGIN{ FS=",";}{ print $4 }‘ test2.txt > test_menber.txt

  awk指定分隔符的方法为FS=",",运行后的结果如下

vi test_menber.txt
"内容"
"====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||"
"====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||"
"====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||====================会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||"

  这里已经获取到了会员的信息;但是一行有多个会员的信息,而个数又是不固定的。因此下面是想办法一行显示一个会员

  3、一行显示一个会员

  由于会员信息间通过“====================”分割,要实现一行显示一个会员只需要将“====================”替换成换行即可。

sed -i "s/====================/\n/g" test_menber.txt 

  查看test_menber.txt的内容

vi test_menber.txt 

      1 "内容"
      2 "
      3 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||
      4 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||
      5 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||
      6 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||"
      7 "
      8 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||
      9 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||
     10 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||
     11 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||"
     12 "
     13 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||
     14 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||
     15 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||
     16 会员名:鬼脚七||||||||||||||||||会员等级:军长第5年|||姓名:张三 |||"

  

  4、替换掉其他字符“"”、空行和“|||”

#将“"”替换成空字符串
sed -i "s/\"//g" test_menber.txt
#删除空行
sed -i ‘/^$/d‘ test_menber.txt
#将分隔符|||换成@
sed -i "s/|||/@/g" test_menber.txt

  

  5、根据会员名去重

sort -t $"@" -k 1,1 -su test_menber.txt >test_uniq.txt

  -t可以指定分隔符,-k指定排序的field, -su表示稳定排序并去重

  查看结果

[[email protected] yichen]# more test_uniq.txt
会员名:鬼脚七@@@@@@会员等级:军长第5年@姓名:张三 @
内容

  思路和测试完成了,但是文件比较多,一个个文件去处理也比较麻烦。因而写个脚本去处理即可

  三、脚本批量处理

  1、转换文件编码

[[email protected] yichen]# vi iconv_shell.sh
#!/bin/sh
if [ "$#" != "2" ]; then
echo "Usage: `basename $0` dir filter"
exit
fi
echo $1
for file in `find $1 -name "$2"`; do
echo "$file"
iconv -c -f gb2312 -t utf8 $file > ${file}_utf8

  调用./iconv_shell.sh 目录 文件通配符,例如:

./iconv_shell.sh ./ "*txt"

  此时生成的文件后缀为:.txt_utf8

  2、提取会员信息

vi awk_filler.sh
#!/bin/sh
if [ "$#" != "2" ]; then
echo "Usage: `basename $0` dir filter"
exit
fi
for file in `find $1 -name "$2"`; do
echo "$file"
awk ‘BEGIN{ FS=",";}{ print $4 }‘ $file > ${file}_menber
done

  调用

./awk_filler.sh ./ "*.txt_utf8"

  此时生成的文件后缀为:.txt_utf8_menber

  3、替换“====================”、“"”、“|||”和换行

vi sed_shell.sh
#!/bin/sh
if [ "$#" != "2" ]; then
echo "Usage: `basename $0` dir filter"
exit
fi
for file in `find $1 -name "$2"`; do
echo "$file"
sed -i "s/====================/\n/g; s/\"//g; /^$/d; s/|||/@/g" $file
done

for file in `find $1 -name "$2"`; do
echo "$file"
sed -i "/^$/d" $file
done

  sed支持多表达式:sed "表达式1;表达式2" filename,注意表达式之间用“;”号隔开。

  调用:

sh ./sed_shell.sh ./ "*.txt_utf8_menber"

  替换后的文件后缀仍为txt_utf8_menber

  4、去重

vi uniq_shell.sh
#!/bin/sh
if [ "$#" != "2" ]; then
echo "Usage: `basename $0` dir filter"
exit
fi
for file in `find $1 -name "$2"`; do
echo "$file"
sort -t $"@" -k 1,1 -su ${file} >${file}_uniq
done

  调用:

sh ./uniq_shell.sh ./ "*.txt_utf8_menber"

  最后生成去重后的文件后缀为txt_utf8_menber_uniq

  其实也可以放在一个shell脚本里面完成,这里就不再阐述了。想想看10G的文件用几个简单的命令就完成了去重,可见linux的强大。所以说学几个简单的linux命令还是很有必要的,这样可以大大地降低你的工作量,提高工作的效率。这是我觉得相对较快的处理方式,如果您有更好的处理方式不妨告诉我。

时间: 2024-08-16 20:52:38

用几条shell命令快速去重10G数据的相关文章

使用jq工具在Shell命令行处理JSON数据

因为最近要处理一些 JSON 数据格式,一大早经过一番搜索后,最终找到了 jq 这个很棒的工具.jq 允许你直接在命令行下对 JSON 进行操作,包括分片.过滤.转换等等. 首先在mac下安装jq,使用brew install jq就可以了,前提是安装了homebrew,如果在linux ubuntu下,应该可以使用sudo apt-get install jq安装. 让我们通过几个例子来说明 jq 的功能: 一.输出格式化,漂亮的打印效果 如果我们用文本编辑器打开 JSON,有时候可能看起来会

Oracle中用exp/imp命令快速导入导出数据

from: http://blog.csdn.net/wangchunyu11155/article/details/53635602 [用 exp 数 据 导 出]: 1 将数据库TEST完全导出,用户名system 密码manager 导出到D:\daochu.dmp中   exp system/[email protected] file=d:\daochu.dmp full=y 2 将数据库中system用户与sys用户的表导出   exp system/[email protected

如何使用shell脚本快速排序和去重文件数据

前面写过一篇通过shell脚本去重10G数据的文章,见<用几条shell命令快速去重10G数据>.然而今天又碰到另外一个业务,业务复杂度比上次的单纯去重要复杂很多.找了很久没有找到相应的办法,于是用shell脚本程序去处理.具体业务逻辑: 1.首先根据给定指定进行排序 2.排序后对给定字段进行去重,去重的规则如下: a)排序后如果相邻N行给定字段值相同的行数不超过两行,则两行都保留. a)排序后如果相邻N行给定字段值相同的行数超过两行,则保留首行和尾行. 就这样一个业务逻辑,其实看起来并不是太

adb shell 命令

adb 概述 SDK的Tools文件夹下包含着Android模拟器操作的重要命令adb,adb的全称为(Android Debug Bridge就是调试桥的作用.通过adb我们可以在Eclipse中方面通过DDMS来调试Android程序.借助这个工具,我们可以管理设备或手机模拟器的状态.还可以进行以下的操作:   1.快速更新设备或手机模拟器中的代码,如应用或Android 系统升级: 2.在设备上运行shell命令: 3.管理设备或手机模拟器上的预定端口: 4.在设备或手机模拟器上复制或粘贴

shell命令技巧——文本去重并保持原有顺序

简单来说,这个技巧对应的是如下一种场景 假设有文本如下 cccc aaaa bbbb dddd bbbb cccc aaaa 现在需要对它进行去重处理,这个很简单,sort -u就可以搞定,但是如果我希望保持文本原有的顺序,比如这里有两个aaaa,我只是希望去掉第二个aaaa,而第一个aaaa在bbbb的前面,去重后仍旧要在它前面,所以我期望的输出结果是 cccc aaaa bbbb dddd 当然,这个问题本身并不难,用C++或python写起来都很容易,但所谓杀机焉用牛刀,能用shell命令

37条常用Linux Shell命令组合

序号 任务 命令组合 1 删除0字节文件 find . -type f -size 0 -exec rm -rf {} \; find . type f -size 0 -delete 2 查看进程,按内存从大到小排列 ps -e -o “%C : %p : %z : %a”|sort -k5 -nr 3 按cpu利用率从大到小排列 ps -e -o “%C : %p : %z : %a”|sort -nr 4 打印说cache里的URL grep -r -a jpg /data/cache/*

写了一个Mac快速设置、打开和关闭Web代理的Shell命令

缘由(痛点) 每次在Mac上设置Web代理,都需要点开"系统偏好设置 -- 网络 -- 高级 -- 代理",然后分别设置Web代理(HTTP)和安全Web代理(HTTPS),设置完后,还要点"好 -- 应用".如果要关闭Web代理也是如此,只是点到代理设置面板后,只需要取消勾选Web代理和安全Web代理. 个人觉得这种操作很繁琐,对于一个经常需要改Web代理的人来说,这简直是灾难性的重复操作.所以这段时间学了些Linux Shell脚本编程的知识,写了两个Shell

Linux如何让一条命令快速修改用户密码?

问题:修改密码的命令为passwd,需要按Enter两次,如何一条命令快速修改密码呢? #实现命令: #echo 密码 | passwd echo 密码 | passwd --stdin 用户名; 举例: 修改root密码: echo ***** | passwd --stdin root #echo ***** | passwd --stdin root 解读:echo 将密码通过管道符送到 passwd, --stdin 参数用于获取标准输入,此处从管道符中获取标准输入后的密码,非常必要,不

Robotium通过广播与服务+shell命令实现跨进程自动化测试之广播与服务

还记得当初刚学robotium的时候,有人提起过这个方法,当时觉得很牛逼,暂时不想接触(其实就是对比较深入,难以快速理解的知识的畏惧).现在到了不得不去了解的时候,也只能硬着头皮上了... 先来讲一下我现在对这个方法的理解:整个Android程序,我们可以看成是一个个的实验室(进程)组成的,我们使用robotium就转属于其中一个实验室,实验室的规定非常的严格,不允许人员进入其他的实验室.但是人总是要有些消息或者有些活动需要别的实验室配合(跨进程)..这个时候我们只有一种办法,就是通过中转人员(