版权声明:本文由胡恒威原创文章,转载请注明出处:
文章原文链接:https://www.qcloud.com/community/article/86
来源:腾云阁 https://www.qcloud.com/community
是否会有这样的场景:在有需要测试数据的时候,你不知如何生成一些已包含测试数据的文件;或者你是临时需要一个小的程序,可以让你生成不同大小的文件(比如大于1Mb少于100Mb),不需要从网络上去搜寻查找如何生成,这里有一些简单的方法帮你偷懒。
1.当你不需要关心随机文件的内容,只需一个固定大小的文件
- Solaris、Mac OS X等Unix系统中mkfile指令,可以产生指定大小的文件,而Linux上则没有
例子:mkfile -n 160g test1
- Linux可以用dd指令,/dev/zero是一个特别的文件描述符可以通过它返回null值
例子:dd if=/dev/zero of=test.file count=1024 bs=1024
产生count * bs字节的文件,1M
此方法生成随机文件的好处在于效率高(产生1G文件大概1s),创建的文件大小精确到字节
坏处也有
使用null字符来填充文件内容,文件统计时没有行(wc -l test.file
为0)
2.当你不需要关心随机文件的内容,但期望测试文件能有统计的行
将/dev/zero
改为/dev/urandom
,/dev/urandom
是linux下的随机数生成器
关于/dev/urandom
跟/dev/random
两者的区别就不在此详细讨论,大概就是,前者是不受系统interrupts
的限制,即使没有足够的interrupt它也能通过随机数生成器产生足够的输出值;而后者如果用在dd
上,它不能被ctrl+c
或者kill -9
中断,如果ds的值较大时,产生的随机值不足而长期占用CPU。虽然说/dev/random
产生的随机数会更随机些,但与dd混用还是建议用/dev/urandom
效率更高。
缺点跟/dev/zero
比当然是效率会更低些了,生成个100Mb的文件需要10秒左右,而且文件并没有可读的内容,一般的情况基本上是满足了。
漏了说句,dd
是linux与unix都支持的指令。
3.当你关心文件的随机内容行数,而不关心内容是否有所重复
这里的思路就是找一个参照文件(比如说2行),将文件重新定向到新的文件,再mv覆盖保存,外加一个for循环。(n为循环次数,产生的文件行为2^(n+1))
例子:假设先建立一个file.txt文件,里面含有Hello 和 World两行for i in {1..n}; do cat file.txt file.txt > file2.txt && mv file2.txt file.txt; done
由于是阶乘,n=20左右已经是200W行,效率会下降地比较厉害
4.当你关心随机文件的内容,而不想出现重复内容行情况
这种情况下系统的指令应该是不能满足了,或者可以通过操作系统的指令写一大串脚本也可以达到,但不建议这么做,因为可读性和维护性考虑,你应该要引入Ruby或者Python类的脚本语言帮忙了
但还是要借助些系统的东西来帮忙
思路:/usr/share/dict/words
里面有记录一些单词,一共235886行,每行一个单词
可以从里面挑选一些作为文件的内容
加循环达到我们想要的随机文件要求
举例:ruby -e ‘a=STDIN.readlines;X.times do; b=[];Y.times do; b<<a[rand(a.size)].chomp end; puts b.join(" ")‘ < /usr/share/dict/words > file.txt
X为随机文件需要的行数,Y为从words中读取的单词,虽说组合成一句的命令,还是可以读懂的;从标准输入中重复读取Y个单词,写入到b列表中,然后再通过join空格连接内容写入到标准输出文件file.txt中
这样基本很少会有重复的行了,而且生成的效率与其他方法对比还是可以的,10秒生成100Mb文件。欢迎大家讨论。
参考:
mkfile的Apple官方文档:
https://developer.apple.com/library/mac/documentation/Darwin/Reference/Manpages/man8/mkfile.8.html
dd的wiki:
http://en.wikipedia.org/wiki/Dd_(Unix)