hadoop调优之一:概述

hadoop集群性能低下的常见原因

(一)硬件环境

1、CPU/内存不足,或未充分利用

2、网络原因

3、磁盘原因

(二)map任务原因

1、输入文件中小文件过多,导致多次启动和停止JVM进程。可以设置JVM重用。

2、数据倾斜:大文件且不可分割,导致处理这些文件的map需要很长时间。

3、数据本地化效果差。

(三)reduce任务的原因

1、reduce任务数量过大或过小

2、数据倾斜:一部分key的记录数量太大,导致某些reduce执行过慢

3、缓慢的shuffle和排序

(四)hadoop的配置不当

(五)JAVA代码及JVM调优

一、硬件调优

1、CPU/内存使用情况vmstat、top

$ vmstat -S M 5

procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu-----

 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st

 0  0      0    566    232    239    0    0    65   824   59   39  4  1 93  1  0

 0  3      0    366    232    432    0    0     0 25929 2638 2776 14 14 43 28  0

 2  1      0    241    232    543    0    0    26 38110 2123 1316 75 11  0 14  0

 3  0      0     78    232    543    0    0     0 11784 1558 1028 80  4 16  0  0

 0  0      0    189    232    543    0    0     0   142 1052  933 70  3 27  1  0

 0  0      0    185    232    543    0    0     0    30  500  589 15  1 84  0  0

 2  0      0    180    232    544    0    0     0     3  502  595 12  1 87  0  0

 0  0      0    508    232    293    0    0     0    74 1161 1036 77  5 18  0  0

 0  0      0    626    233    175    0    0     0   150  385  447  2  1 97  0  0

以上各个字段的意思分别是:

好了,命令介绍完毕,现在开始实战讲解每个参数的意思。

r 表示运行队列(就是说多少个进程真的分配到CPU),当这个值超过了CPU数目,就会出现CPU瓶颈 了。这个也和top的负载有关系,一般负载超过了3就比较高,超过了5就高,超过了10就不正常了,服务器的状态很危险。top的负载类似每秒的运行队 列。如果运行队列过大,表示你的CPU很繁忙,一般会造成CPU使用率很高。

b 表示阻塞的进程,这个不多说,进程阻塞,大家懂的。

swpd 虚拟内存已使用的大小,如果大于0,表示你的机器物理内存不足了,如果不是程序内存泄露的原因,那么你该升级内存了或者把耗内存的任务迁移到其他机器。

free   空闲的物理内存的大小,我的机器内存总共8G,剩余3415M。

buff   Linux/Unix系统是用来存储,目录里面有什么内容,权限等的缓存,我本机大概占用300多M

cache cache直接用来记忆我们打开的文件,给文件做缓冲,我本机大概占用300多M(这里是Linux/Unix的聪明之处,把空闲的物理内存的一部分拿来做文件和目录的缓存,是为了提高 程序执行的性能,当程序使用内存时,buffer/cached会很快地被使用。)

si  每秒从磁盘读入虚拟内存的大小,如果这个值大于0,表示物理内存不够用或者内存泄露了,要查找耗内存进程解决掉。我的机器内存充裕,一切正常。

so  每秒虚拟内存写入磁盘的大小,如果这个值大于0,同上。

bi  块设备每秒接收的块数量,这里的块设备是指系统上所有的磁盘和其他块设备,默认块大小是1024byte,我本机上没什么IO操作,所以一直是0,但是我曾在处理拷贝大量数据(2-3T)的机器上看过可以达到140000/s,磁盘写入速度差不多140M每秒

bo 块设备每秒发送的块数量,例如我们读取文件,bo就要大于0。bi和bo一般都要接近0,不然就是IO过于频繁,需要调整。

in 每秒CPU的中断次数,包括时间中断

cs 每秒上下文切换次数,例如我们调用系统函数,就要进行上下文切换,线程的切换,也要进程上下文切换,这个值要越小越好,太大了,要考虑调低线程或者进程的 数目,例如在apache和nginx这种web服务器中,我们一般做性能测试时会进行几千并发甚至几万并发的测试,选择web服务器的进程可以由进程或 者线程的峰值一直下调,压测,直到cs到一个比较小的值,这个进程和线程数就是比较合适的值了。系统调用也是,每次调用系统函数,我们的代码就会进入内核
空间,导致上下文切换,这个是很耗资源,也要尽量避免频繁调用系统函数。上下文切换次数过多表示你的CPU大部分浪费在上下文切换,导致CPU干正经事的 时间少了,CPU没有充分利用,是不可取的。

us 用户CPU时间,我曾经在一个做加密解密很频繁的服务器上,可以看到us接近100,r运行队列达到80(机器在做压力测试,性能表现不佳)。

sy 系统CPU时间,如果太高,表示系统调用时间长,例如是IO操作频繁。

id  空闲 CPU时间,一般来说,id + us + sy = 100,一般我认为id是空闲CPU使用率,us是用户CPU使用率,sy是系统CPU使用率。

wt 等待IO CPU时间。

2、网络

(1)ethtool:检查网卡是否工作正常,是否全双工,速度设置是否合理等。

(2)sar:比较各个网卡的性能

# sar -n DEV 3 2

Linux 2.6.32-431.23.3.el6.x86_64 (slave1)       03/13/2015      _x86_64_        (1 CPU)

08:41:11 PM     IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s

08:41:14 PM        lo      0.00      0.00      0.00      0.00      0.00      0.00      0.00

08:41:14 PM      eth0     11.71     10.70      1.05      4.47      0.00      0.00      0.00

08:41:14 PM      eth1    144.48      0.00      5.93      0.00      0.00      0.00      0.00

08:41:14 PM     IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s

08:41:17 PM        lo     28.04     28.04      3.90      3.90      0.00      0.00      0.00

08:41:17 PM      eth0    183.45   3765.20     27.06    905.80      0.00      0.00      0.00

08:41:17 PM      eth1    179.05     31.76      7.48     70.62      0.00      0.00      0.00

Average:        IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s

Average:           lo     13.95     13.95      1.94      1.94      0.00      0.00      0.00

Average:         eth0     97.14   1878.49     13.99    452.86      0.00      0.00      0.00

Average:         eth1    161.68     15.80      6.70     35.13      0.00      0.00      0.00

(3)iperf:检查2台机器间的网络带宽

其中一台充当服务器:

# iperf -s

------------------------------------------------------------

Server listening on TCP port 5001

TCP window size: 85.3 KByte (default)

------------------------------------------------------------

[  4] local 10.171.94.155 port 5001 connected with 10.171.29.191 port 46455

------------------------------------------------------------

Client connecting to 10.171.29.191, TCP port 5001

TCP window size:  143 KByte (default)

------------------------------------------------------------

[  6] local 10.171.94.155 port 52215 connected with 10.171.29.191 port 5001

[ ID] Interval       Transfer     Bandwidth

[  6]  0.0-10.0 sec   664 MBytes   557 Mbits/sec

[  4]  0.0-10.0 sec   466 MBytes   390 Mbits/sec

另一台充当客户端:

# iperf -c 10.171.94.155 -f m -d

------------------------------------------------------------

Server listening on TCP port 5001

TCP window size: 0.08 MByte (default)

------------------------------------------------------------

------------------------------------------------------------

Client connecting to 10.171.94.155, TCP port 5001

TCP window size: 0.10 MByte (default)

------------------------------------------------------------

[  4] local 10.171.29.191 port 46455 connected with 10.171.94.155 port 5001

[  5] local 10.171.29.191 port 5001 connected with 10.171.94.155 port 52215

[ ID] Interval       Transfer     Bandwidth

[  4]  0.0-10.0 sec   466 MBytes   390 Mbits/sec

[  5]  0.0-10.0 sec   664 MBytes   555 Mbits/sec

(4)tcpdump:检查数据包的传输情况

# tcpdump port 8649

tcpdump: verbose output suppressed, use -v or -vv for full protocol decode

listening on eth0, link-type EN10MB (Ethernet), capture size 65535 bytes

20:43:11.396729 IP master.38498 > slave1.8649: UDP, length 136

20:43:11.396746 IP master.38498 > slave1.8649: UDP, length 64

20:43:11.397101 IP master.38498 > slave1.8649: UDP, length 136

20:43:11.397105 IP master.38498 > slave1.8649: UDP, length 64

20:43:11.397107 IP master.38498 > slave1.8649: UDP, length 136

20:43:11.397108 IP master.38498 > slave1.8649: UDP, length 80

20:43:11.397109 IP master.38498 > slave1.8649: UDP, length 64

20:43:11.397110 IP master.38498 > slave1.8649: UDP, length 144

20:43:11.397111 IP master.38498 > slave1.8649: UDP, length 68

20:43:11.397112 IP master.38498 > slave1.8649: UDP, length 156

20:43:11.397114 IP master.38498 > slave1.8649: UDP, length 188

20:43:11.397115 IP master.38498 > slave1.8649: UDP, length 92

20:43:11.397116 IP master.38498 > slave1.8649: UDP, length 88

还可以使用host等参数。

3、磁盘健康情况

(1)iostart

# iostat

Linux 2.6.32-431.17.1.el6.x86_64 (master)       03/13/2015      _x86_64_        (1 CPU)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle

           4.73    0.00    3.07   33.99    0.00   58.22

Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn

xvda            206.31       292.48      2301.51  176511452 1388963336

xvdb             10.24        69.64       645.59   42029194  389614304

[[email protected] ~]# 

[[email protected] ~]# 

[[email protected] ~]# iostat -m -x -d 5

Linux 2.6.32-431.17.1.el6.x86_64 (master)       03/13/2015      _x86_64_        (1 CPU)

Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await  svctm  %util

xvda              0.16   115.94   34.57  171.74     0.14     1.12    12.57     4.92   23.83   1.87  38.49

xvdb              0.00    71.55    1.09    9.14     0.03     0.32    69.88     0.89   87.38   0.89   0.91

Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await  svctm  %util

xvda              0.00     0.00    0.00    0.81     0.00     0.00     8.00     0.00    4.75   1.75   0.14

xvdb              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00

(2)dmesg

输出详细的错误信息,常见的信息如下:

type=1400 audit(1425645012.364:7): avc:  denied  { setattr } for  pid=1318 comm="rrdtool" name="fontconfig" dev=xvda1 ino=1049117 scontext=unconfined_u:system_r:httpd_t:s0 tcontext=system_u:object_r:fonts_cache_t:s0 tclass=dir

二、map端调优

1、输入文件中小文件过多,导致多次启动和停止JVM进程。

可以设置JVM重用。或者作数据预处理,将小文件合并。

2、数据倾斜:大文件且不可分割,导致处理这些文件的map需要很长时间。

尽量避免这种情况出现,可以通过预处理解决。

3、数据本地化效果差。

将数据均衡的分布到集群中:

start-balancer.sh

4、检查是否某天数据量突然暴增

三、reduce端调优

1、不使用reduce

map结束后向reduce传输结果时需要经过shuffle阶段及排序,并通过网络传输数据,此过程引起较大的损耗,因此,在满足一定条件的情况下,可以将reduce任务设置为0。

job.setNumReduceTasks(0);

注意必须显示的定义数量为0,否则默认情况下,会有一个reduce任务,类为Reduce,此类将输入KV直接作为输出KV。

2、过滤和投影

如果一定要有reduce过程,那下一步就是尽量减少map输出的数据量,一方面可以减少网络传输数据,另一方面可以减少reduce需要处理的数据。

减少map的输出数据量有2种常见的方法:

(1)过滤:将对最终结果无影响的整个记录删除。

(2)投影:删除记录中某些对最终结果无影响的项。

3、使用combiner

使用combiners可以在map阶段通过合并数据,从而减少向reduce传输数据。

4、优化比较器

此方法可以提高数据排序顺序

5、减少倾斜数据

由于map的输出中某个key对应大量的value值,从而导致处理这个key的reduce任务所耗时间远远大于其它reduce。

6、reduce的数量调整

将reduce的数量调整为比集客reduce slot总数少一点,这可以保证充分利用集群的性能,又可容忍一定的机器错误。

四、hadoop配置不当

充分了解hadoop的配置文件,为集群选择最佳配置。

参考:http://blog.csdn.net/jediael_lu/article/details/38680013

五、java调优

参考:??

时间: 2024-11-04 09:31:25

hadoop调优之一:概述的相关文章

hadoop 调优

Hadoop调优 mapred.tasktracker.map.tasks.maximum 官方解释:The maximum number of map tasks that will be run  simultaneously by a task tracker. 我的理解:一个tasktracker最多可以同时运行的map任务数量 默认值:2 优化值:mapred.tasktracker.map.tasks.maximum = cpu数量 cpu数量 = 服务器CPU总核数 / 每个CPU

Hadoop调优参数总结

Map端调优参数 属性名称 类型 默认值 说明 io.sort.mb int 100 排序map输出时所使用的内存缓冲区大小,以M为单位.当节点内存较大时,可调高该参数,以减少磁盘写入次数. io.sort.record.percent float 0.05 用作存储map输出(io.sort.mb)记录的比例.剩余的空间用来存储map输出记录本身 io.sort.spill.percent float 0.80 map输出开始写磁盘的阈值. io.sort.factor int 10 map输

java程序性能调优---------------性能概述

一.程序的性能通过哪几个方面表现 1.执行速度(程序反应反应是否迅速.响应时间是否足够短) 2.分配内存 (分配内存是否合理,是否过多的消耗内存或者内存溢出) 3.启动时间(程序从运行到可以正常处理业务需要花费多长时间) 4.负载承受能力(当系统压力上升时,系统的执行速度.响应时间的上升曲线是否平缓) 二.性能的参考指标 1.执行时间(一段代码从开始运行到运行结束,所使用的时间) 2.CPU时间(函数或者线程占用CPU实际) 3.内存分配(程序在运行时占用的内存空间) 4.磁盘吞吐量(描述I/O

Cloudera Hadoop 5& Hadoop高阶管理及调优课程(CDH5,Hadoop2.0,HA,安全,管理,调优)

1.课程环境 本课程涉及的技术产品及相关版本: 技术 版本 Linux CentOS 6.5 Java 1.7 Hadoop2.0 2.6.0 Hadoop1.0 1.2.1 Zookeeper 3.4.6 CDH Hadoop 5.3.0 Vmware 10 Hive 0.13.1 HBase 0.98.6 Impala 2.1.0 Oozie 4.0.0 Hue 3.7.0 2.内容简介 本教程针对有一定Hadoop基础的学员,深入讲解如下方面的内容: 1.Hadoop2.0高阶运维,包括H

七、Hadoop学习笔记————调优之Hadoop参数调优

dfs.datanode.handler.count默认为3,大集群可以调整为10 传统MapReduce和yarn对比 如果服务器物理内存128G,则容器内存建议为100比较合理 配置总量时考虑系统调优块,双路四核2*4*2=16g,则总量设置为10到12比较合适,需要预留空间给其他服务器 需要给master分配足够资源,并且分配受限于yarn hadoop调优需要不断尝试,没有固定的套路

Hive 的简单使用及调优参考文档

Hive 的简单使用及调优参考文档 ? HIVE的使用 命令行界面 使用一下命令查看hive的命令行页面, hive --help --service cli 简化命令为hive –h 会输出下面的这些东西 -d,--define <key=value> Variable subsitution to apply to hive commands. e.g. -d A=B or --define A=B --database <databasename> Specify the d

Hive| 压缩| 存储| 调优

Hadoop压缩配置 修改Hadoop集群具有Snappy压缩方式: 查看hadoop支持的压缩方式 [kris@hadoop101 datas]$ hadoop checknative 将编译好的支持Snappy压缩的hadoop-2.7.2.tar.gz包导入到hadoop101的/opt/software中 1.解压hadoop-2.7.2.tar.gz到当前路径 [kris@hadoop101 software]$ tar -zxvf hadoop-2.7.2.tar.gz 2.进入到/

大数据技术之_08_Hive学习_04_压缩和存储(Hive高级)+ 企业级调优(Hive优化)

第8章 压缩和存储(Hive高级)8.1 Hadoop源码编译支持Snappy压缩8.1.1 资源准备8.1.2 jar包安装8.1.3 编译源码8.2 Hadoop压缩配置8.2.1 MR支持的压缩编码8.2.2 压缩参数配置8.3 开启Map输出阶段压缩8.4 开启Reduce输出阶段压缩8.5 文件存储格式8.5.1 列式存储和行式存储8.5.2 TextFile格式8.5.3 Orc格式8.5.4 Parquet格式8.5.5 主流文件存储格式对比实验8.6 存储和压缩结合8.6.1 修

Hive 企业级调优

1 Fetch 抓取 Fectch 抓取是指对某些情况下的查询不必使用 MapReduce 计算 将 hive.fetch.task.conversion 设置成 more,在全局查找.字段查找.limit查找等都不走 MapReduce 2 本地模式 多数的 Hadoop Job 是需要 Hadoop 提供的完整的可扩展性来处理大数据集的,不过,有时 Hive 的输入数据量是非常小的,在这种情况下,为查询触发执行任务消耗的时间可能会比实际job的执行时间要多的多,对于大多数这种情况,Hive