Hadoop基准测试

其实就是从网络上copy的吧,在这里做一下记录

这个是看一下有哪些测试方式:

hadoop  jar /opt/cloudera/parcels/CDH-5.3.6-1.cdh5.3.6.p0.11/jars/hadoop-mapreduce-client-jobclient-2.5.0-cdh5.3.6-tests.jar

测试hadoop写的速度

向HDFS文件系统中写入数据,30个文件,每个文件100MB,文件存放到/benchmarks/TestDFSIO/io_data中

hadoop  jar /opt/cloudera/parcels/CDH-5.3.6-1.cdh5.3.6.p0.11/jars/hadoop-mapreduce-client-jobclient-2.5.0-cdh5.3.6-tests.jar TestDFSIO -write -nrFiles 30 -fileSize 100MB

然后查看结果:cat TestDFSIO_results.log

我的集群基准测试结果如下 做了两次,有两个不同的结果,从结果上来看,为什么变化这么大:

----- TestDFSIO ----- : write
Date & time: Thu Sep 17 16:45:03 CST 2015
Number of files: 10
Total MBytes processed: 100.0
Throughput mb/sec: 27.51031636863824
Average IO rate mb/sec: 30.240123748779297
IO rate std deviation: 8.554948120135029
Test exec time sec: 30.227

----- TestDFSIO ----- : write
Date & time: Thu Sep 17 16:49:53 CST 2015
Number of files: 30
Total MBytes processed: 3000.0
Throughput mb/sec: 7.770168768065642
Average IO rate mb/sec: 8.027955055236816
IO rate std deviation: 1.629595948634101
Test exec time sec: 41.057

测试一下读的速度

hadoop  jar /opt/cloudera/parcels/CDH-5.3.6-1.cdh5.3.6.p0.11/jars/hadoop-mapreduce-client-jobclient-2.5.0-cdh5.3.6-tests.jar TestDFSIO -read -nrFiles 30 -fileSize 100MB

结果如下:

----- TestDFSIO ----- : read
Date & time: Thu Sep 17 16:55:26 CST 2015
Number of files: 30
Total MBytes processed: 3000.0
Throughput mb/sec: 55.33115697449234
Average IO rate mb/sec: 215.3984375
IO rate std deviation: 181.40860904339297
Test exec time sec: 27.108

清除一下测试数据:

hadoop  jar /opt/cloudera/parcels/CDH-5.3.6-1.cdh5.3.6.p0.11/jars/hadoop-mapreduce-client-jobclient-2.5.0-cdh5.3.6-tests.jar  TestDFSIO -clean

时间: 2024-07-30 20:08:48

Hadoop基准测试的相关文章

Hadoop 基准测试与example

#pi值示例 hadoop jar /app/cdh23502/share/hadoop/mapreduce2/hadoop-mapreduce-examples-2.3.0-cdh5.0.2.jar pi 20 200 #生成数据 第一个参数是行数 第二个参数是位置 hadoop jar /app/cdh23502/share/hadoop/mapreduce2/hadoop-mapreduce-examples-2.3.0-cdh5.0.2.jar teragen 1000000 /tera

几个有关Hadoop自带的性能测试工具的应用

http://www.talkwithtrend.com/Question/177983-1247453 一些测试的描述如下内容最为详细,供你参考: 测试对于验证系统的正确性.分析系统的性能来说非常重要,但往往容易被我们所忽视.为了能对系统有更全面的了解.能找到系统的瓶颈所在.能对系统性能做更好的改进,打算先从测试入手,学习Hadoop几种主要的测试手段.本文将分成两部分:第一部分记录如何使用Hadoop自带的测试工具进行测试:第二部分记录Intel开放的Hadoop Benchmark Sui

史上最全“大数据”学习资源整理

史上最全"大数据"学习资源整理 当前,整个互联网正在从IT时代向DT时代演进,大数据技术也正在助力企业和公众敲开DT世界大门.当今"大数据"一词的重点其实已经不仅在于数据规模的定义,它更代表着信息技术发展进入了一个新的时代,代表着爆炸性的数据信息给传统的计算技术和信息技术带来的技术挑战和困难,代表着大数据处理所需的新的技术和方法,也代表着大数据分析和应用所带来的新发明.新服务和新的发展机遇. 为了帮助大家更好深入了解大数据,云栖社区组织翻译了GitHub Aweso

大数据资源

当前,整个互联网正在从IT时代向DT时代演进,大数据技术也正在助力企业和公众敲开DT世界大门.当今"大数据"一词的重点其实已经不仅在于数据规模的定义,它更代表着信息技术发展进入了一个新的时代,代表着爆炸性的数据信息给传统的计算技术和信息技术带来的技术挑战和困难,代表着大数据处理所需的新的技术和方法,也代表着大数据分析和应用所带来的新发明.新服务和新的发展机遇. 为了帮助大家更好深入了解大数据,云栖社区组织翻译了GitHub Awesome Big Data资源,供大家参考.本资源类型主

HADOOP中HDFS基准测试

hdfs 基准测试: 磁盘读写性能测试 hadoop jar ./hadoop-mapreduce-client-jobclient-2.7.2.3.jar TestDFSIO -read -nrFiles 10 -fileSize 10MB hadoop jar ./hadoop-mapreduce-client-jobclient-2.7.2.3.jar TestDFSIO -write -nrFiles 10 -fileSize 10MB dev环境:read: 19/06/28 08:1

Hadoop之——分布式集群安装过程

转载请注明出处http://blog.csdn.net/l1028386804/article/details/46316051 集群的概念 计算机集群是一种计算机系统,它通过一组松散集成的计算机软件和/或硬件连接起来高度紧密地协作完成计算工作. 集群系统中的单个计算机通常称为节点,通常通过局域网连接. 集群技术的特点: 1.通过多台计算机完成同一个工作.达到更高的效率 2.两机或多机内容.工作过程等完全一样.如果一台死机,另一台可以起作用 集群模式安装步骤       (在伪分布模式下继续)

Spark 与 Hadoop 关于 TeraGen/TeraSort 的对比实验(包含源代码)

自从 Hadoop 问世以来,MapReduce 在很长时间内都是排序基准测试的纪录保持者,但这一垄断在最近被基于内存计算的 Spark 打破了.在今年Databricks与AWS一起完成的一个Daytona Gray类别的Sort Benchmark中,Spark 完胜 Hadoop MapReduce:"1/10计算资源,1/3耗时".这是个很有意思的对比实验,因此笔者也在一个小规模集群上做了一个微缩版的类似试验. 1.Hadoop 与 Spark 集群环境完全相同: - Hado

Hadoop集群选择合适的硬件配置

为Hadoop集群选择合适的硬件配置 随着Apache Hadoop的起步,云客户的增多面临的首要问题就是如何为他们新的的Hadoop集群选择合适的硬件. 尽管Hadoop被设计为运行在行业标准的硬件上,提出一个理想的集群配置不想提供硬件规格列表那么简单. 选择硬件,为给定的负载在性能和经济性提供最佳平衡是需要测试和验证其有效性.(比如,IO密集型工作负载的用户将会为每个核心主轴投资更多). 在这个博客帖子中,你将会学到一些工作负载评估的原则和它在硬件选择中起着至关重要的作用.在这个过程中,你也

Hadoop笔记HDFS(1)

环境:Hadoop2.7.3 1.Benchmarking HDFS 1.1测试集群的写入 运行基准测试是检测HDFS集群是否正确安装以及表现是否符合预期的好方法.DFSIO是Hadoop自带的一个基准测试程序,可以用来分析HDFS集群的I/O能力 脚本: $HADOOP_HOME/bin/hadoop jar hadoop-mapreduce-client-jobclient-2.7.3-tests.jar TestDFSIO -write -nrFiles 10 -size 50MB nrF