Java性能问题定位 - 基础篇

一句话总结:从问题现象为入口,归结为3类问题进行定位分析:内存满、CPU高、线程阻塞。

首先先介绍下jvisualvm这款jdk自带的性能工具。通常我们要定位哪块代码性能差,耗时久,最原始的办法就是在各个方法前后日志打印时间戳并计算耗时,这种方法很繁琐,通常要加很多日志多次部署才能定位到,我一开始也是这么搞的。而使用jvisualvm工具则可以直接查看整个业务代码调用链中各个方法的耗时及占比,直接就能定界出是哪个方法性能差,耗时久。

操作步骤:点击抽样器页签,点击CPU抽样,前台操作触发代码执行,操作完点击停止,再点击快照。在快照页点击搜索按钮,输入代码入口方法名搜索,结果见下图。

我们来分析下下图,RegionNorthbound.createRegion是北向入口方法,总耗时见右侧5.298秒,其调用了RegionServiceImpl.createRegion方法,耗时4.093秒,那么相减就是RegionNorthbound.createRegion方法本身的耗时。

RegionServiceImpl.createRegion方法调用了CommonDao.saveEntity和RegionServiceImpl.checkRepeat方法,分别耗时0.998秒和0.094秒。可以直观查看是调用的哪个方法耗时久,性能差。整个方法调用链的耗时均可查看。

这在大型系统中非常有用。大型系统中通常业务由业务部门开发,平台由平台部门开发,只提供jar包给业务部门使用。那么当测试出性能问题时,首先要定界出是业务的问题还是平台的问题,再转给对应部门去修改。业务开发不知道平台的实现,无法查看修改其代码,更不用说去加日志。固通过此工具可以快速定界出问题责任主体。

当然jvisualvm除了查看代码调用链耗时,实时监控CPU、内存、线程数,线程dump、内存dump等功能都非常好用。

下面开始按问题分类进行定位分析。

一:内存问题

问题现象:后台报错,前台提示异常或500错误。

定位:后台报错的定位思路很明确了,查看日志,这里分两类异常:一、java.lang.OutOfMemoryError: PermGen space异常,此为方法区内存溢出,方法区用来存放class代码,通常解决办法就是调大jvm permSize参数值;二、java.lang.OutOfMemoryError: heap space异常,比较常见的堆内存溢出。当然也可以调大jvm参数来解决,但若是不恰当代码引起的,首先检查下自己写的代码,看哪里创建了大量对象。若检查不出来,则使用jmap或jvisualvm导出内存快照。

分析下图heap dump,这里又分两种情况,若左侧占内存大的类名为com.**.User这种自己定义的业务对象,那在代码中搜索下此类名就能定位到哪里创建了大量此对象。若为String、Integer这种基本类型的对象,则可以使用Eclipse Memory Analyer此类工具进一步分析,可以查看内存大对象的线程堆栈,即可查看代码调用方法。

二:CPU问题

问题现象:前台显示卡顿,响应时间长,linux top查看cpu使用率非常高

定位步骤:

1、使用top查看进程pid,java系统通常进程名就叫java

2、使用top -H -p pid查看进程中各线程的CPU使用情况,找出最占CPU的线程pid,注意这里其实就是tid

3、通过步骤2我们知道是哪个线程占CPU了,使用jstack pid打印线程堆栈,查看该线程的代码调用方法

4、将步骤2线程tid转换为16进制,因为jstack打印出来的threaddump中tid为16进制,然后在threaddump中搜索,即可找到线程堆栈,这里30725转换为16进制就是7805

这里有个情况要特别说明,如果步骤4查看的占用CPU的线程为java gc线程,通常是由于内存快满才导致jvm频繁gc,进而导致CPU高。固此种情况得按上面提到的内存问题去定位解决。

三:线程问题

问题现象1:请求响应时间长,性能测试TPS/QPS上不去,查看CPU占用又不高

问题现象2:请求响应直接超时,后台线程相互死锁

定位:线程问题通常打印一次threaddump是看不出问题的,要多打印几次对比才能看出问题。建议使用jvisualvm线程页签实时查看线程状态。查看指定业务线程状态,若长时间处于wait或block状态,则可确认该问题是由于线程阻塞引起的。查看线程堆栈可查看是调用哪个方法时阻塞的。死锁问题也是类似定位,线程堆栈里会提示在等待哪个线程释放lock,而有两个线程互相等待即会死锁。

备忘:

jvisualvm连接远程jvm,远程jvm添加启动参数:

-Djava.rmi.server.hostname=10.6.188.43 -Dcom.sun.management.jmxremote.port=18888 -Dcom.sun.management.jmxremote=true -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.managementote.ssl=false -Dcom.sun.management.jmxremote.authenticate=false

原文地址:https://www.cnblogs.com/yuzhengzhong/p/9845704.html

时间: 2024-08-07 14:15:37

Java性能问题定位 - 基础篇的相关文章

Java(Android)线程池---基础篇

1.new Thread的弊端 执行一个异步任务你还只是如下new Thread吗? 1 newThread(newRunnable(){ 2 3 @Override 4 publicvoidrun(){ 5 // TODO Auto-generated method stub 6 } 7 }).start(); 那你就out太多了,new Thread的弊端如下: a. 每次new Thread新建对象性能差.b. 线程缺乏统一管理,可能无限制新建线程,相互之间竞争,及可能占用过多系统资源导致

Spark性能优化指南——基础篇(转)

http://mp.weixin.qq.com/s?__biz=MjM5NDMwNjMzNA==&mid=2651805828&idx=1&sn=2f413828d1fdc6a64bdbb25c51508dfc&scene=2&srcid=0519iChOETxAx0OeGoHnm7Xk&from=timeline&isappinstalled=0#rd Spark性能优化指南--基础篇 优才网 2016-05-18 前言 在大数据计算领域,Spar

Java 性能优化之 String 篇

原文:http://www.ibm.com/developerworks/cn/java/j-lo-optmizestring/ Java 性能优化之 String 篇 String 方法用于文本分析及大量字符串处理时会对内存性能造成不可低估的影响.我们在一个大文本数据分析的项目中(我们统计一个约 300MB 的 csv 文件中所有单词出现的次数)发现,用于存放结果的 Collection 占用了几百兆的内存,远远超出唯一单词总数 20000 个. 本文将通过分析 String 在 JVM 中的

风雨java路之【基础篇】——异常的那些事儿

异常,说白了,就是不正常,就是由于种种原因产生了非正常的结果.生活中此现象比比皆是,举个简单的例子: 去ATM机取钱,插入银行卡,没反应,这就是异常,可能是机器坏了,也可能是卡消磁了等等:读卡成功,输入密码时,铵错按钮,这也是异常:密码正确,想取¥1000,结果余额不足,这又是异常:钱取完了,卡被吞了,这还是异常:-- 拿人来说,沙尘迷眼了,这是异常情况:喝水呛着了,这也是异常:水指不小心划破流血了,这也是异常:-- 出现这些情况该怎么办?那就需要"异常机制",对于ATM机,他有自己的

Spark性能优化指南——基础篇

前言 在大数据计算领域,Spark已经成为了越来越流行.越来越受欢迎的计算平台之一.Spark的功能涵盖了大数据领域的离线批处理.SQL类处理.流式/实时计算.机器学习.图计算等各种不同类型的计算操作,应用范围与前景非常广泛.在美团•大众点评,已经有很多同学在各种项目中尝试使用Spark.大多数同学(包括笔者在内),最初开始尝试使用Spark的原因很简单,主要就是为了让大数据计算作业的执行速度更快.性能更高. 然而,通过Spark开发出高性能的大数据计算作业,并不是那么简单的.如果没有对Spar

美团Spark性能优化指南——基础篇

http://tech.meituan.com/spark-tuning-basic.html 前言 在大数据计算领域,Spark已经成为了越来越流行.越来越受欢迎的计算平台之一.Spark的功能涵盖了大数据领域的离线批处理.SQL类处理.流式/实时计算.机器学习.图计算等各种不同类型的计算操作,应用范围与前景非常广泛.在美团?大众点评,已经有很多同学在各种项目中尝试使用Spark.大多数同学(包括笔者在内),最初开始尝试使用Spark的原因很简单,主要就是为了让大数据计算作业的执行速度更快.性

【转载】 Spark性能优化指南——基础篇

前言 开发调优 调优概述 原则一:避免创建重复的RDD 原则二:尽可能复用同一个RDD 原则三:对多次使用的RDD进行持久化 原则四:尽量避免使用shuffle类算子 原则五:使用map-side预聚合的shuffle操作 原则六:使用高性能的算子 原则七:广播大变量 原则八:使用Kryo优化序列化性能 原则九:优化数据结构 资源调优 调优概述 Spark作业基本运行原理 资源参数调优 写在最后的话 前言 在大数据计算领域,Spark已经成为了越来越流行.越来越受欢迎的计算平台之一.Spark的

Spark性能优化指南——基础篇转

前言 在大数据计算领域,Spark已经成为了越来越流行.越来越受欢迎的计算平台之一.Spark的功能涵盖了大数据领域的离线批处理.SQL类处理.流式/实时计算.机器学习.图计算等各种不同类型的计算操作,应用范围与前景非常广泛.在美团•大众点评,已经有很多同学在各种项目中尝试使用Spark.大多数同学(包括笔者在内),最初开始尝试使用Spark的原因很简单,主要就是为了让大数据计算作业的执行速度更快.性能更高. 然而,通过Spark开发出高性能的大数据计算作业,并不是那么简单的.如果没有对Spar

Spark性能优化指南--基础篇

前言 开发调优 调优概述 原则一:避免创建重复的RDD 原则二:尽可能复用同一个RDD 原则三:对多次使用的RDD进行持久化 原则四:尽量避免使用shuffle类算子 原则五:使用map-side预聚合的shuffle操作 原则六:使用高性能的算子 原则七:广播大变量 原则八:使用Kryo优化序列化性能 原则九:优化数据结构 资源调优 调优概述 Spark作业基本运行原理 资源参数调优 写在最后的话 前言 在大数据计算领域,Spark已经成为了越来越流行.越来越受欢迎的计算平台之一.Spark的