垃圾回收相关算法
标记阶段:引用计数算法
在堆里存放着几乎所有的Java对象实例,在GC执行垃圾回收之前,首先需要区分出内存中哪些是存活对象,哪些是已经死亡的对象。只有被标记为己经死亡的对象,GC才会在执行垃圾回收时,释放掉其所占用的内存空间,因此这个过程我们可以称为垃圾标记阶段。
那么在JVM中究竟是如何标记一个死亡对象呢?简单来说,当一个对象已经不再被任何的存活对象继续引用时,就可以宣判为已经死亡。
判断对象存活一般有两种方式:引用计数算法和可达性分析算法。
引用计数算法(Reference Counting)比较简单,对每个对象保存一个整型的引用计数器属性。用于记录对象被引用的情况。
对于一个对象A,只要有任何一个对象引用了A,则A的引用计数器就加1;当引用失效时,引用计数器就减1。只要对象A的引用计数器的值为0,即表示对象A不可能再被使用,可进行回收。
优点:实现简单,垃圾对象便于辨识;判定效率高,回收没有延迟性。
缺点:1. 它需要单独的字段存储计数器,这样的做法增加了存储空间的开销。
2. 每次赋值都需要更新计数器,伴随着加法和减法操作,这增加了时间开销。
3. 引用计数器有一个严重的问题,即无法处理循环引用的情况。这是一条致命缺陷,导致在Java的垃圾回收器中没有使用这类算法。
循环引用
小结
引用计数算法,是很多语言的资源回收选择,例如因人工智能而更加火热的Python,它更是同时支持引用计数和垃圾收集机制。
具体哪种最优是要看场景的,业界有大规模实践中仅保留引用计数机制,以提高吞吐量的尝试。
Java并没有选择引用计数,是因为其存在一个基本的难题,也就是很难处理循环引用关系。Python如何解决循环引用?
手动解除:很好理解,就是在合适的时机,解除引用关系。 使用弱引用weakref,weakref是Python提供的标准库,旨在解决循环引用。
标记阶段:可达性分析算法
概念
可达性分析算法:也可以称为 根搜索算法、追踪性垃圾收集
相对于引用计数算法而言,可达性分析算法不仅同样具备实现简单和执行高效等特点,更重要的是该算法可以有效地解决在引用计数算法中循环引用的问题,防止内存泄漏的发生。
相较于引用计数算法,这里的可达性分析就是Java、C#选择的。这种类型的垃圾收集通常也叫作追踪性垃圾收集(Tracing Garbage Collection)
思路
所谓"GCRoots”根集合就是一组必须活跃的引用。
基本思路:
- 可达性分析算法是以根对象集合(GCRoots)为起始点,按照从上至下的方式搜索被根对象集合所连接的目标对象是否可达。
- 使用可达性分析算法后,内存中的存活对象都会被根对象集合直接或间接连接着,搜索所走过的路径称为引用链(Reference Chain)
- 如果目标对象没有任何引用链相连,则是不可达的,就意味着该对象己经死亡,可以标记为垃圾对象。
- 在可达性分析算法中,只有能够被根对象集合直接或者间接连接的对象才是存活对象。
官场上的裙带关系,可达性分析在人类关系网中
GC Roots可以是哪些?
-
虚拟机栈中引用的对象
比如:各个线程被调用的方法中使用到的参数、局部变量等。
-
本地方法栈内JNI(通常说的本地方法)引用的对象方法区中类静态属性引用的对象
比如:Java类的引用类型静态变量
-
方法区中常量引用的对象
比如:字符串常量池(string Table)里的引用
-
所有被同步锁synchronized持有的对象
-
Java虚拟机内部的引用。
基本数据类型对应的Class对象,一些常驻的异常对象(如:Nu11PointerException、outofMemoryError),系统类加载器。
-
反映java虚拟机内部情况的JMXBean、JVMTI中注册的回调、本地代码缓存等。
总结
总结一句话就是,除了堆空间外的一些结构,比如 虚拟机栈、本地方法栈、方法区、字符串常量池 等地方对堆空间进行引用的,都可以作为GC Roots进行可达性分析
局部回收
除了这些固定的GC Roots集合以外,根据用户所选用的垃圾收集器以及当前回收的内存区域不同,还可以有其他对象“临时性”地加入,共同构成完整GC Roots集合。比如:分代收集和局部回收(PartialGC)。
如果只针对Java堆中的某一块区域进行垃圾回收(比如:典型的只针对新生代),必须考虑到内存区域是虚拟机自己的实现细节,更不是孤立封闭的,这个区域的对象完全有可能被其他区域的对象所引用,这时候就需要一并将关联的区域对象也加入GCRoots集合中去考虑,才能保证可达性分析的准确性。
小技巧
由于Root采用栈方式存放变量和指针,所以如果一个指针,它保存了堆内存里面的对象,但是自己又不存放在堆内存里面,那它就是一个Root。
注意
如果要使用可达性分析算法来判断内存是否可回收,那么分析工作必须在一个能保障一致性的快照中进行。这点不满足的话分析结果的准确性就无法保证。
这点也是导致GC进行时必须“stop The World”的一个重要原因。
即使是号称(几乎)不会发生停顿的CMS收集器中,枚举根节点时也是必须要停顿的。
对象的finalization机制
Java语言提供了对象终止(finalization)机制来允许开发人员提供对象被销毁之前的自定义处理逻辑。
当垃圾回收器发现没有引用指向一个对象,即:垃圾回收此对象之前,总会先调用这个对象的finalize()方法。
finalize() 方法允许在子类中被重写,用于在对象被回收时进行资源释放。通常在这个方法中进行一些资源释放和清理的工作,比如关闭文件、套接字和数据库连接等。
注意
- 永远不要主动调用某个对象的finalize()方法,应该交给垃圾回收机制调用。
- 在finalize()时可能会导致对象复活。
- finalize()方法的执行时间是没有保障的,它完全由Gc线程决定,极端情况下,若不发生GC,则finalize()方法将没有执行机会。
- 因为优先级比较低,即使主动调用该方法,也不会因此就直接进行回收
- 一个糟糕的finalize()会严重影响Gc的性能。
从功能上来说,finalize()方法与c++
中的析构函数比较相似,但是Java采用的是基于垃圾回收器的自动内存管理机制,所以finalize()方法在本质上不同于C++中的析构函数。
由于finalize()方法的存在,虚拟机中的对象一般处于三种可能的状态。
对象状态
如果从所有的根节点都无法访问到某个对象,说明对象己经不再使用了。一般来说,此对象需要被回收。但事实上,也并非是“非死不可”的,这时候它们暂时处于“缓刑”阶段。一个无法触及的对象有可能在某一个条件下“复活”自己,如果这样,那么对它的回收就是不合理的,为此,定义虚拟机中的对象可能的三种状态。如下:
- 可触及的:从根节点开始,可以到达这个对象。
- 可复活的:对象的所有引用都被释放,但是对象有可能在finalize()中复活。
- 不可触及的:对象的finalize()被调用,并且没有复活,那么就会进入不可触及状态。不可触及的对象不可能被复活,因为finalize()只会被调用一次。
以上3种状态中,是由于finalize()方法的存在,进行的区分。只有在对象不可触及时才可以被回收。
具体过程
判定一个对象objA是否可回收,至少要经历两次标记过程:
- 如果对象objA到GC Roots没有引用链,则进行第一次标记。
- 进行筛选,判断此对象是否有必要执行finalize()方法
- 如果对象objA没有重写finalize()方法,或者finalize()方法已经被虚拟机调用过,则虚拟机视为“没有必要执行”,objA被判定为不可触及的。
- 如果对象objA重写了finalize()方法,且还未执行过,那么objA会被插入到F-Queue队列中,由一个虚拟机自动创建的、低优先级的Finalizer线程触发其finalize()方法执行。
- finalize()方法是对象逃脱死亡的最后机会,稍后GC会对F-Queue队列中的对象进行第二次标记。如果objA在finalize()方法中与引用链上的任何一个对象建立了联系,那么在第二次标记时,objA会被移出“即将回收”集合。之后,对象会再次出现没有引用存在的情况。在这个情况下,finalize方法不会被再次调用,对象会直接变成不可触及的状态,也就是说,一个对象的finalize方法只会被调用一次。
下图就是我们看到的Finalizer线程
代码演示
我们使用重写 finalize()方法,然后在方法的内部,重写将其存放到GC Roots中
|
|
最后运行结果
|
|
在进行第一次清除的时候,我们会执行finalize方法,然后 对象 进行了一次自救操作,但是因为finalize()方法只会被调用一次,因此第二次该对象将会被垃圾清除。
MAT与JProfiler的GC Roots溯源
MAT是什么?
MAT是Memory Analyzer的简称,它是一款功能强大的Java堆内存分析器。用于查找内存泄漏以及查看内存消耗情况。
MAT是基于Eclipse开发的,是一款免费的性能分析工具。
大家可以在http://www.eclipse.org/mat/下载并使用MAT
有如下程序,分别在回收list和date对象之前和之后进行dump
|
|
命令行使用 jmap
使用jvisualVM 进行dump
使用MAT打开Dump文件
打开后,我们就可以看到有哪些可以作为GC Roots的对象
回收之前
回收之后
gc溯源:实际开发中先定位到哪个对象占用过多导致的内存泄露,然后顺着这个对象的引用链在一个合适的位置断开引用链。
jprofile的gc roots溯源
右击大对象,show selection in heap walker -> references - > 下拉框1 incoming references -> 点击对象 -> show paths to gc root
oom排查
|
|
- 设置当oom时dump
|
|
-
使用jprofile打开dump文件(默认生成在项目根目录)
-
打开之后点击biggest objects查看大对象
通过thread dump还能看出是哪一行出的问题
清除阶段:标记-清除算法
什么是GC标记-清除算法
标记清除顾名思义是一种分两阶段对对象进行垃圾回收的算法。
第一阶段:标记。从根结点出发遍历对象,对访问过的对象打上标记,表示该对象可达。
第二阶段:清除。对那些没有标记的对象进行回收,这样使得不能利用的空间能够重新被利用。
如果用伪代码表示的话则大致如下:
|
|
标记实现:
|
|
通过深度优先遍历每个根结点,然后打上标记,就知道哪些对象是存活的。
标记所花费的时间是与存活的数量成正比,时间复杂度为O(N),N为存活对象的数量。
清除的一种简单实现:
|
|
在清除阶段程序会遍历整个堆,对有标记的对象把标记清除掉等待下次GC,对于没有标记的对象则会放到一个单向的空闲列表free_list里面,这样当新建对象需要分配内存时我们就可以从free_list里面取出合适的分块。
这里所谓的清除并不是真的置空,而是把需要清除的对象地址保存在空闲的地址列表里。下次有新对象需要加载时,判断垃圾的位置空间是否够,如果够,就存放覆盖原有的地址。
关于空闲列表是在为对象分配内存的时候提过
- 如果内存规整
- 采用指针碰撞的方式进行内存分配
- 如果内存不规整
- 虚拟机需要维护一个列表
- 空闲列表分配
对象的内存分配
对于上面提到的标记清除算法,新建对象分配内存时假设需要大小为size,则需要对空闲列表free_list进行一次单向遍历找出大于等于size的块。对于如何找到合适的块有以下三种分配策略:
1、First-fit: 找到大于等于size的块立即返回
2、Best-fit:遍历整个空闲列表,返回大于等于size的最小分块
3、Worst-fit:遍历整个空闲列表,找到最大的分块,然后切成两部分,一部分size大小,并将该部分返回。
这三种策略里面Worst-fit的空间利用率看起来是最合理,但实际上切分之后会造成很多的小块,形成内存碎片,所以不推荐使用。对于First-fit和Best-fit来说,考虑到分配的速度和效率First-fit是更为明智的选择。
优点与缺点:
上面的算法优点:
1、实现简单
2、不移动对象,与保守式GC算法兼容。在保守式GC算法中对象是不能移动的。
算法的缺点:
1、内存碎片化。因为对象不移动,所以导致块是不连续的,容易出现空闲内存很多,但分配大对象时找不到合适的块。
2、分配速度慢。即使是First-fit,但其操作仍是一个O(n)的操作,最坏情况是每次都要遍历到最后。同时因为碎片化,大对象的分配效率会更慢。
优化与改进
多空闲链表
其实产生内存碎片和分配速度慢的主要原因是因为我们的只用到一条空闲链表的缘故。如果我们对块的大小进行分类:1字节的块放在 free_list_1, 2字节的块在free_list_2,….. 直到free_list_100,对于100或100字节以上的块我们统一放到free_list_100里面。这样的话分配对象内存时就不用遍历整个链表而是根据大小到对应的具体的空闲链表,这样的时间会更快。并且因为作为大小区分,很多对象都能找到合适的块,有效的减少和避免了内存碎片的产生。这样的话内存碎片和分配速度慢的问题都可以得有效解决和缓解,perfect!
另外在GC算法中除了标记-清除外,还有复制-清除,标记-整理等算法。这些算法都是相互借鉴,并且有各自的优点。其中标记-整理更是整合了前两种算法,这些我们在后面的文章中会逐一介绍。
清除阶段:复制算法
GC复制算法(Copying GC)是由Marvin L. Minsky在1963年研究出来的算法。原理是把内存分为两个空间一个是From空间,一个是To空间,对象一开始只在From空间分配,To空间是空闲的。GC时把存活的对象从From空间复制粘贴到To空间,之后把To空间变成新的From空间,原来的From空间变成To空间。回收前后对比下图所示
不需要标记和清除
标记-清除的标记过程是为清除做准备的,需要获取的内容是哪些是没有用的,可达性分析过程中找到的都是需要保留的内容,不是需要清除的内容,所以需要做标记,在清除的时候清除没有标记的。 但是复制的算法需要获取的是哪些是有用的,也就是说可达性分析的过程中已经完成了筛选,分析过程中就可以将这一部分内容复制到另一半空间中,然后把原来的一半空间完全清除就可以了,没有标记的必要。
算法实现
如果手动编码实现复制清除回收算法的话,大概如下:
|
|
上面代码分为三步:
1、遍历根结点集合roots。
2、复制根结点及其引用的结点到To空间,并返回新引用。
3、复制完成后,把指向From空间和To空间指针相互交换。
复制的过程:
|
|
1、对于任意对象我们都需要记录有没有被复制过,如果有则obj.tag = COPIED。如果不记录标记就会造成重复复制,比如A可以引用B,同样C也引用B,不标记则B会被复制两次。
2、用obj.forwarding记录对象在新空间(To空间)的偏移量(内存地址),还记得在copying方法中我们把$free
赋值了$to_start
吗。每复制一个对象$free
就向前移动obj.size的,这样后面复制对象时就可以保持对象位置的同步更新,同时$free
也记录了当前空间使用了多少内存。
3、返回新的对象引用替换到旧的引用, **child = copy(*child); return obj.forwarding。**如果不替换掉,那么程序中的引用就不能访问到复制到To空间最新对象,还是访问原来在From空间的老对象,老对象被回收后程序还继续访问或者访问到旧值就会触发不可预知的异常!
空间分配
在GC完成后原有的From空间已经变成了To空间,旧To空间变成新的From空间。所以此时对象分配落在新From空间,又因为我们复制对象后把对象紧凑的拼合在了一起,如开头图片所示~。此时内存的分配就相对简单了,只需要把$free
指针移动对应大小的位置就可以了。假定From空间和To空间都等于二分之一堆空间(HEAP_SIZE),则分配的过程:
|
|
是不是觉得GC复制算法分配内存的过程很简单~
优缺点分析
对于任意的GC算法我们都可以从吞吐量(GC延迟),内存的分配效率,内存碎片化,堆的使用效率这个几个方面评估。
吞吐量(GC延迟):正所谓没有对比就没有伤害。另一种算法GC 标记-清除 消耗的吞吐量是搜索存活对象(标记阶段)和搜索整堆(清除阶段)所花的时间之和。而GC复制算法只搜索并复制存活的对象,少了访问整堆和构造空闲链表的操作能够在短时间内完成GC。换言之,GC复制的吞吐量要比标记-清除要优秀,并且堆越大这种差距越明显。
内存的分配效率:GC复制算法不使用空闲链表,因为分块本身就是一个连续的空间。只要新建的对象不超过剩余空间的大小,只需要移动$free
指针即可~。所以GC复制算法的分配效率非常的高效。
内存碎片化:没有内存碎片化。因为是分块是连续的空间,对象都是按需分配,紧凑的挨在一起。
堆的使用效率:因为To空间一直都是空闲的,如果To的空间很大就会造成明显内存浪费。这可以说是GC复制算法一大缺陷吧。如果To空间定义的太小,复制时放不下存活的对象就会导致程序异常。如果定义足够大,则分给From空间太小,反过来容易增加GC的次数。所以GC复制算法的难点在于定义From空间与To空间的比例。
不过GC总体来说复制算法还是很优良的,JVM对堆里面新生代的垃圾回收就运用了GC复制算法,并根据java对象的存活特点作了相应的改良:把堆分成了一个From区,二个Survior区,比例为8:1:1,保证了GC高效同时提高了堆的使用效率哈。
注意
如果系统中的垃圾对象很多,复制算法需要复制的存活对象数量并不会太大,或者说非常低才行(老年代大量的对象存活,那么复制的对象将会有很多,效率会很低)
在新生代,对常规应用的垃圾回收,一次通常可以回收70% - 99% 的内存空间。回收性价比很高。所以现在的商业虚拟机都是用这种收集算法回收新生代。
清除阶段:标记-压缩算法
GC标记-压缩算法由标记阶段和压缩阶段构成。
标记阶段和之前的标记-清除中提到的标记阶段完全一样,然后我们就通过遍历数次堆来进行压缩。这里的压缩指的就是 复制-清除 里面的把存活对象重新装填,使对象都紧挨在一起,从而避免内存碎片的产生,同时保证内存的高速分配。不过与GC复制算法不同的是,标记-压缩不需要牺牲额外的空间。
Lisp2算法
提到标记-压缩就不得不提著名的计算机学家 Donald E. Knuth 发明的Lisp2算法。
在详细介绍算法之前我们先了解一下这个算法结构中的对象结构。
Lisp2在对象头里面会预留一个叫forwarding的指针,这个指针和 复制算法 里面forwarding的用法一样指向GC后对象新的内存空间。这里提前说明一点就是forwarding不为空就表示该对象并没有移动完毕。
Lisp2算法的GC过程
初始状态
从GC Roots出发,标记活动对象
进行压缩
通过图我们知道活动对象B、C、D、F分别对应B'、C'、D'、F'。所以Lisp2算法并不会改变对象原本的排序顺序,只是把缩小对象间的间隙,然后聚集到一端。
整个压缩阶段用伪代码的话,如下表示
|
|
如代码所示整个阶段分为三个步骤
1、设定forwarding指针
2、更新指针
3、移动对象
对于步骤1,程序会搜索整个堆,给活动对象设定forwarding指针
|
|
scan是用来遍历堆中对象的指针,new_address是指向目标对象的指针,这两个指针在后续的操作中是很重要的。当scan指针找到活动对象时,就会令对象的forwarding指针指向newaddress,然后将new_address按对象长度移动。遍历完整个堆后堆的状态就会变成
设置好forwarding之后,接下来我们做的是并不是马上移动对象而是先更新对象的指针adjust_ptr()。这是因为GC标记-压缩算法中新空间和原空间是同一个空间,所以有可能出现先移动的对象把还没有来得及移动的对象覆盖掉的情况。另外我们还需要记录各对象之间引用关系,找到对象GC后的目标地址。所以在移动对象前,我们先把活动对象的指针全部更新到预计的位置,这样一来,之后只要移动对象,GC就结束了。
|
|
adjust_ptr()第一步是重写roots结点的指针,后面才重写所有活动对象的指针。注意这已经第二次对整个堆执行搜索了。函数执行完毕后,堆的状态如下
最后一步搜索整个堆,将活动对象移动到forwarding指针的引用目标处。需要注意的是这已经是第三次搜索整个堆了。
|
|
这里的逻辑就比较简单,搜索堆找到活动对象时,就把对象复制到forwarding指针指向的地址,然后把forwarding置NULL,后清除mark标记。
介绍完Lisp2算法整个流程之后,我们再回来分析一下算法的优缺点。
优点: 可有效利用堆。相对于GC复制-清除,GC标记-压缩不会空出一个To空间,是利用了整个堆。相对于GC标记-清除,GC标记-压缩对活动对象进行了压缩,不存在碎片化的问题,所以有效率利用率高。
缺点:压缩花费计算成本大。为了对活动对象进行压缩,我们看到Lisp2的压缩过程必须进行三次堆搜索。堆搜索的花费时间是和堆的大小成正比的,所以GC标记-压缩算法的吞吐量要劣于其它算法。在GC 标记-清除 算法中,清除阶段也要搜索整个堆,不过搜索一次就够了。但GC标记-压缩要搜索三次,这样就要花费大约三倍的时间,这是一个相当巨大的缺陷,特别是堆越大,所消耗的成本也越大。
所以后面有人就提出了另外一种算法 Two-Finger算法
优点:
Lisp2 算法要事先确保每个对象都留有 1 个字用于 forwarding 指针,这就压迫了堆。然而 因为 Two-Finger 算法能把 forwarding 指针设置在移动前的对象的域里,所以不需要额外的内存 空间以用于 forwarding 指针,因此在内存的使用效率上,该算法要比 Lisp2 算法的使用效率高。 此外,在 Two-Finger 算法中,压缩所带来的搜索次数只有 2 次,比 Lisp2 算法少 1 次, 在吞吐量方面占优势
缺点:
Two-Finger不像GC 复制-清除算法,将具有引用关系的对象安排在堆中较近的 位置能够通过缓存来提高访问速度。Two-Finger 算法则不考虑对象间的引用关系, 一律对其进行压缩,结果就导致对象的顺序在压缩前后产生了巨大的变化。因此,基本 上也无法期待这个算法能沾缓存的光。 此外该算法还有一个限制条件,那就是所有对象的大小必须一致。因为能消除这个限制 的处理系统不太多,所以这点制约了 Two-Finger 算法的应用范围 。
小结
效率上来说,复制算法是当之无愧的老大,但是却浪费了太多内存。
而为了尽量兼顾上面提到的三个指标,标记-整理算法相对来说更平滑一些,但是效率上不尽如人意,它比复制算法多了一个标记的阶段,比标记-清除多了一个整理内存的阶段。
标记清除 | 标记整理 | 复制 | |
---|---|---|---|
速率 | 中等 | 最慢 | 最快 |
空间开销 | 少(但会堆积碎片) | 少(不堆积碎片) | 通常需要活对象的2倍空间(不堆积碎片) |
移动对象 | 否 | 是 | 是 |
综合我们可以找到,没有最好的算法,只有最合适的算法
分代收集算法
前面所有这些算法中,并没有一种算法可以完全替代其他算法,它们都具有自己独特的优势和特点。分代收集算法应运而生。
分代收集算法,是基于这样一个事实:不同的对象的生命周期是不一样的。因此,不同生命周期的对象可以采取不同的收集方式,以便提高回收效率。一般是把Java堆分为新生代和老年代,这样就可以根据各个年代的特点使用不同的回收算法,以提高垃圾回收的效率。
在Java程序运行的过程中,会产生大量的对象,其中有些对象是与业务信息相关,比如Http请求中的Session对象、线程、Socket连接,这类对象跟业务直接挂钩,因此生命周期比较长。但是还有一些对象,主要是程序运行过程中生成的临时变量,这些对象生命周期会比较短,比如:string对象,由于其不变类的特性,系统会产生大量的这些对象,有些对象甚至只用一次即可回收。
目前几乎所有的GC都采用分代手机算法执行垃圾回收的
在HotSpot中,基于分代的概念,GC所使用的内存回收算法必须结合年轻代和老年代各自的特点。
- 年轻代(Young Gen)
年轻代特点:区域相对老年代较小,对象生命周期短、存活率低,回收频繁。
这种情况复制算法的回收整理,速度是最快的。复制算法的效率只和当前存活对象大小有关,因此很适用于年轻代的回收。而复制算法内存利用率不高的问题,通过hotspot中的两个survivor的设计得到缓解。
浪费1/3 * 1/10 = 1/30
- 老年代(Tenured Gen)
老年代特点:区域较大,对象生命周期长、存活率高,回收不及年轻代频繁。
这种情况存在大量存活率高的对象,复制算法明显变得不合适。一般是由标记-清除或者是标记-清除与标记-整理的混合实现。
- Mark阶段的开销与存活对象的数量成正比。
- Sweep阶段的开销与所管理区域的大小成正相关。
- compact阶段的开销与存活对象的数据成正比。
以HotSpot中的CMS回收器为例,CMS是基于Mark-Sweep实现的,对于对象的回收效率很高。而对于碎片问题,CMS采用基于Mark-Compact算法的Serial old回收器作为补偿措施:当内存回收不佳(碎片导致的Concurrent Mode Failure时),将采用serial old执行FullGC以达到对老年代内存的整理。
分代的思想被现有的虚拟机广泛使用。几乎所有的垃圾回收器都区分新生代和老年代
增量收集算法
概述
上述现有的算法,在垃圾回收过程中,应用软件将处于一种stop the World的状态。在stop the World状态下,应用程序所有的线程都会挂起,暂停一切正常的工作,等待垃圾回收的完成。如果垃圾回收时间过长,应用程序会被挂起很久,将严重影响用户体验或者系统的稳定性。为了解决这个问题,即对实时垃圾收集算法的研究直接导致了增量收集(Incremental Collecting)算法的诞生。
如果一次性将所有的垃圾进行处理,需要造成系统长时间的停顿,那么就可以让垃圾收集线程和应用程序线程交替执行。每次,垃圾收集线程只收集一小片区域的内存空间,接着切换到应用程序线程。依次反复,直到垃圾收集完成。
总的来说,增量收集算法的基础仍是传统的标记-清除和复制算法。增量收集算法通过对线程间冲突的妥善处理,允许垃圾收集线程以分阶段的方式完成标记、清理或复制工作
缺点
使用这种方式,由于在垃圾回收过程中,间断性地还执行了应用程序代码,所以能减少系统的停顿时间。但是,因为线程切换和上下文转换的消耗,会使得垃圾回收的总体成本上升,造成系统吞吐量的下降。
分区算法
一般来说,在相同条件下,堆空间越大,一次GC时所需要的时间就越长,有关GC产生的停顿也越长。为了更好地控制GC产生的停顿时间,将一块大的内存区域分割成多个小块,根据目标的停顿时间,每次合理地回收若干个小区间,而不是整个堆空间,从而减少一次GC所产生的停顿。
分代算法将按照对象的生命周期长短划分成两个部分,分区算法将整个堆空间划分成连续的不同小区间。 每一个小区间都独立使用,独立回收。这种算法的好处是可以控制一次回收多少个小区间。
写在最后
注意,这些只是基本的算法思路,实际GC实现过程要复杂的多,目前还在发展中的前沿GC都是复合算法,并且并行和并发兼备。