对象的生死判定和算法详解

  对象除了生死之外,还有其他状态吗?对象真正的死亡,难道只经历一次简单的判定?如何在垂死的边缘“拯救”一个将死对象?判断对象的生死存活都有那些算法?本文带你一起找到这些答案。

  在正式开始之前,我们先来了解一下垃圾回收。

  GC介绍

  **GC:**Garbage Collection,中文翻译为垃圾回收。

  GC的历史

  GC有着很长的历史了,最初的GC算法发布于1960年(已经快有60年的历史了),Lisp之父John McCarthy发布的,他是一名非常有名的黑客,也是人工智能之父,同时也是GC之父。

  为什么要学习GC?

  1、排查内存溢出和内存泄露的问题。

  2、系统调优,处理更高的并发瓶颈。

  GC的作用

  1、找到内存空间的垃圾。

  2、回收垃圾。

  对象生死判断算法

  垃圾回收的第一步就是判断对象是否存活,只有“死去”的对象,才会被垃圾回收器所收回。

  引用计数器算法

  引用计算器判断对象是否存活的算法是这样的:给每一个对象设置一个引用计数器,每当有一个地方引用这个对象的时候,计数器就加1,与之相反,每当引用失效的时候就减1。

  **优点:**实现简单、性能高。

  **缺点:**增减处理频繁消耗cpu计算、计数器占用很多位浪费空间、最重要的缺点是无法解决循环引用的问题。

  因为引用计数器算法很难解决循环引用的问题,所以主流的Java虚拟机都没有使用引用计数器算法来管理内存。

  来看一段循环引用的代码:

  public class ReferenceDemo {

  public Object instance = null;

  private static final int _1Mb = 1024 * 1024;

  private byte[] bigSize = new byte[10 * _1Mb]; // 申请内存

  public static void main(String[] args) {

  System.out.println(String.format(开始:%d M,Runtime.getRuntime().freeMemory() / (1024 * 1024)));

  ReferenceDemo referenceDemo = new ReferenceDemo();

  ReferenceDemo referenceDemo2 = new ReferenceDemo();

  referenceDemo.instance = referenceDemo2;

  referenceDemo2.instance = referenceDemo;

  System.out.println(String.format(运行:%d M,Runtime.getRuntime().freeMemory() / (1024 * 1024)));

  referenceDemo = null;

  referenceDemo2 = null;

  System.gc(); // 手动触发垃圾回收

  System.out.println(String.format(结束:%d M,Runtime.getRuntime().freeMemory() / (1024 * 1024)));

  }

  }

  运行的结果:

  开始:117 M

  运行中:96 M

  结束:119 M

  从结果可以看出,虚拟机并没有因为相互引用就不回收它们,也侧面说明了虚拟机并不是使用引用计数器实现的。

  可达性分析算法

  在主流的语言的主流实现中,比如Java、C#、甚至是古老的Lisp都是使用的可达性分析算法来判断对象是否存活的。

  这个算法的核心思路就是通过一些列的“GC Roots”对象作为起始点,从这些对象开始往下搜索,搜索所经过的路径称之为“引用链”。

  当一个对象到GC Roots没有任何引用链相连的时候,证明此对象是可以被回收的。如下图所示:

  

  在Java中,可作为GC Roots对象的列表:

  Java虚拟机栈中的引用对象。

  本地方法栈中JNI(既一般说的Native方法)引用的对象。

  方法区中类静态常量的引用对象。

  方法区中常量的引用对象。

  对象生死与引用的关系

  从上面的两种算法来看,不管是引用计数法还是可达性分析算法都与对象的“引用”有关,这说明:对象的引用决定了对象的生死。那对象的引用都有那些呢?

  在JDK1.2之前,引用的定义很传统:如果reference类型的数据中存储的数值代表的是另一块内存的起始地址,就称这块内存代表着一块引用。

  这样的定义很纯粹,但是也很狭隘,这种情况下一个对象要么被引用,要么没引用,对于介于两者之间的对象显得无能为力。

  JDK1.2之后对引用进行了扩充,将引用分为:

  强引用(Strong Reference)

  软引用(Soft Reference)

  弱引用(Weak Reference)

  虚引用(Phantom Reference)

  这也就是文章开头第一个问题的答案,对象不是非生即死的,当空间还足够时,还可以保留这些对象,如果空间不足时,再抛弃这些对象。很多缓存功能的实现也符合这样的场景。

  强引用、软引用、弱引用、虚引用,这4种引用的强度是依次递减的。

  **强引用:**在代码中普遍存在的,类似“Object obj = new Object()”这类引用,只要强引用还在,垃圾收集器永远不会回收掉被引用的对象。

  **软引用:**是一种相对强引用弱化一些的引用,可以让对象豁免一些垃圾收集,只有当jvm认为内存不足时,才会去试图回收软引用指向的对象。jvm会确保在抛出OutOfMemoryError之前,清理软引用指向的对象。

  **弱引用:**非必需对象,但它的强度比软引用更弱,被弱引用关联的对象只能生存到下一次垃圾收集发生之前。

  **虚引用:**也称为幽灵引用或幻影引用,是最弱的一种引用关系,无法通过虚引用来获取一个对象实例,为对象设置虚引用的目的只有一个,就是当着个对象被收集器回收时收到一条系统通知。

  死亡标记与拯救

  在可达性算法中不可达的对象,并不是“非死不可”的,要真正宣告一个对象死亡,至少要经历两次标记的过程。

  如果对象在进行可达性分析之后,没有与GC Roots相连接的引用链,它会被第一次标记,并进行筛选,筛选的条件是此对象是否有必要执行finalize()方法。

  执行finalize()方法的两个条件:

  1、重写了finalize()方法。

  2、finalize()方法之前没被调用过,因为对象的finalize()方法只能被执行一次。

  如果满足以上两个条件,这个对象将会放置在F-Queue的队列之中,并在稍后由一个虚拟机自建的、低优先级Finalizer线程来执行它。

  对象的“自我拯救”

  finalize()方法是对象脱离死亡命运最后的机会,如果对象在finalize()方法中重新与引用链上的任何一个对象建立关联即可,比如把自己(this关键字)赋值给某个类变量或对象的成员变量。

  来看具体的实现代码:

  public class FinalizeDemo {

  public static FinalizeDemo Hook = null;

  @Override

  protected void finalize() throws Throwable {

  super.finalize();

  System.out.println(执行finalize方法);

  FinalizeDemo.Hook = this;

  }

  public static void main(String[] args) throws InterruptedException {

  Hook = new FinalizeDemo();

  // 第一次拯救

  Hook = null;

  System.gc();

  Thread.sleep(500); // 等待finalize执行

  if (Hook != null) {

  System.out.println(我还活着);

  } else {

  System.out.println(我已经死了);

  }

  // 第二次,代码完全一样

  Hook = null;

  System.gc();

  Thread.sleep(500); // 等待finalize执行

  if (Hook != null) {

  System.out.println(我还活着);

  } else {

  System.out.println(我已经死了);

  }

  }

  }

  执行的结果:

  执行finalize方法

  我还活着

  我已经死了

  从结果可以看出,任何对象的finalize()方法都只会被系统调用一次。

  不建议使用finalize()方法来拯救对象,原因如下:

  1、对象的finalize()只能执行一次。

  2、它的运行代价高昂。

  3、不确定性大。

  4、无法保证各个对象的调用顺序。

?

原文地址:https://www.cnblogs.com/qfjavabd/p/10300022.html

时间: 2024-11-02 07:32:09

对象的生死判定和算法详解的相关文章

JVM(三)对象的生死判定和算法详解

好的文章是能把各个知识点,通过逻辑关系串连起来,让人豁然开朗的同时又记忆深刻. 导读:对象除了生死之外,还有其他状态吗?对象真正的死亡,难道只经历一次简单的判定?如何在垂死的边缘"拯救"一个将死对象?判断对象的生死存活都有那些算法?本文带你一起找到这些答案. 在正式开始之前,我们先来了解一下垃圾回收. GC介绍 GC:Garbage Collection,中文翻译为垃圾回收. GC的历史 GC有着很长的历史了,最初的GC算法发布于1960年(已经快有60年的历史了),Lisp之父Joh

素数判定Miller_Rabin 算法详解

最简单直观简单的素数判定方法就是试除法.对于判断数n是否是素数,我们从2开始一直到sqrt(n).如果找到一个因子则判断n不是素数,否则是素数.代码如下: bool isPrime( long long n ) { for(long long i = 2; i*i <= n; i++) { if(n%i == 0) return false; } return true; } 如果要找到成1~n的所有素数那么这个时间代价就变为O(n^2),很多时候是不可接受的.所以随着学习的深入,我们了解到了素

机器学习经典算法详解及Python实现---朴素贝叶斯分类及其在文本分类、垃圾邮件检测中的应用

摘要: 朴素贝叶斯分类是贝叶斯分类器的一种,贝叶斯分类算法是统计学的一种分类方法,利用概率统计知识进行分类,其分类原理就是利用贝叶斯公式根据某对象的先验概率计算出其后验概率(即该对象属于某一类的概率),然后选择具有最大后验概率的类作为该对象所属的类.总的来说:当样本特征个数较多或者特征之间相关性较大时,朴素贝叶斯分类效率比不上决策树模型:当各特征相关性较小时,朴素贝叶斯分类性能最为良好.另外朴素贝叶斯的计算过程类条件概率等计算彼此是独立的,因此特别适于分布式计算.本文详述了朴素贝叶斯分类的统计学

机器学习经典算法详解及Python实现--基于SMO的SVM分类器

原文:http://blog.csdn.net/suipingsp/article/details/41645779 支持向量机基本上是最好的有监督学习算法,因其英文名为support vector machine,简称SVM.通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解. (一)理解SVM基本原理 1,SVM的本质--分类 给定一些数据点,它们分别属于两个不同的类,现在要找到一个线性分类器把这些

KM算法详解[转]

KM算法详解 原帖链接:http://www.cnblogs.com/zpfbuaa/p/7218607.html#_label0 阅读目录 二分图博客推荐 匈牙利算法步骤 匈牙利算法博客推荐 KM算法步骤 KM算法标杆(又名顶标)的引入 KM流程详解 KM算法博客推荐 0.二分图 二分图的概念 二分图又称作二部图,是图论中的一种特殊模型. 设G=(V, E)是一个无向图.如果顶点集V可分割为两个互不相交的子集X和Y,并且图中每条边连接的两个顶点一个在X中,另一个在Y中,则称图G为二分图. 可以

机器学习经典算法详解及Python实现--聚类及K均值、二分K-均值聚类算法

摘要 聚类是一种无监督的学习(无监督学习不依赖预先定义的类或带类标记的训练实例),它将相似的对象归到同一个簇中,它是观察式学习,而非示例式的学习,有点像全自动分类.说白了,聚类(clustering)是完全可以按字面意思来理解的--将相同.相似.相近.相关的对象实例聚成一类的过程.机器学习中常见的聚类算法包括 k-Means算法.期望最大化算法(Expectation Maximization,EM,参考"EM算法原理").谱聚类算法(参考机器学习算法复习-谱聚类)以及人工神经网络算法

机器学习经典算法详解及Python实现--CART分类决策树、回归树和模型树

摘要: Classification And Regression Tree(CART)是一种很重要的机器学习算法,既可以用于创建分类树(Classification Tree),也可以用于创建回归树(Regression Tree),本文介绍了CART用于离散标签分类决策和连续特征回归时的原理.决策树创建过程分析了信息混乱度度量Gini指数.连续和离散特征的特殊处理.连续和离散特征共存时函数的特殊处理和后剪枝:用于回归时则介绍了回归树和模型树的原理.适用场景和创建过程.个人认为,回归树和模型树

机器学习经典算法详解及Python实现--线性回归(Linear Regression)算法

(一)认识回归 回归是统计学中最有力的工具之一.机器学习监督学习算法分为分类算法和回归算法两种,其实就是根据类别标签分布类型为离散型.连续性而定义的.顾名思义,分类算法用于离散型分布预测,如前面讲过的KNN.决策树.朴素贝叶斯.adaboost.SVM.Logistic回归都是分类算法:回归算法用于连续型分布预测,针对的是数值型的样本,使用回归,可以在给定输入的时候预测出一个数值,这是对分类方法的提升,因为这样可以预测连续型数据而不仅仅是离散的类别标签. 回归的目的就是建立一个回归方程用来预测目

KMP算法详解(转)

KMP 算法,是由Knuth,Morris,Pratt共同提出的模式匹配算法,其对于任何模式和目标序列,都可以在线性时间内完成匹配查找,而不会发生退化, 是一个非常优秀的模式匹配算法.但是相较于其他模式匹配算法,该算法晦涩难懂,第一次接触该算法的读者往往会看得一头雾水,主要原因是KMP算法在构造跳 转表next过程中进行了多个层面的优化和抽象,使得KMP算法进行模式匹配的原理显得不那么直白.本文希望能够深入KMP算法,将该算法的各个细节彻底 讲透,扫除读者对该算法的困扰. KMP算法对于朴素匹配